Models d'Intel·ligència Artificial sense censura per utilitzar a Linux

Models d'IA sense censura

Encara per als que juguem net i escrivim el nostre propi contingut, la IA ens estalvia força feina. Però hi ha un problema, per això veurem alguns models d'Intel·ligència Artificial sense censura que podem fer servir a Linux.

Amb problema em refereixo als resultats censurats per raons legals, ideològiques o de correcció política. Aquesta censura sol fregar el rudicle. Microsoft Designer es va negar a crear-me la imatge d'una gossa salsitxa i en Canvia una de micos escrivint a màquina. Gossa i mico són termes ofensius per a alguna minoria.

Més enllà de la imatge clickbaitera que il·lustra aquest tipus d'IA no es limita a la creació de pornografia sinó que s'utilitza per a tot contingut que per qualsevol motiu no és generat per les IA normals pel motiu que sigui.

Definint conceptes

Tot i que la Intel·ligència Artificial, a partir de l'aparició de ChatGPT forma part de la nostra vida quotidiana, no gaire gent té clar els conceptes importants. Dos són Els models de llenguatge de grans dimensions (LLM) i la Intel·ligència Artificial generativa

Models de Llenguatge de Gran Grandària

Els Models de Llenguatge de Gran Grandària, (LLM) estan pensats per a treballar amb el llenguatge natural. Són entrenats amb enormes quantitats de dades en format text. Atès que són capaços de predir quina paraula o frase hauria d'aparèixer a continuació en un context específic, són capaços de produir text coherent i útil per respondre diferents consultes.

Intel·ligència Artificial Generativa

Mentre que els LLM s'enfoquen al text i la interacció mitjançant l'ús del llenguatge natural, la IA generativa crea contingut multimèdia nou a partir de la informació amb què va ser entrenada. Aquest contingut pot ser, a més de text, música, vídeo, imatges, codi o àudio.

Models sense censura

Un model d'intel·ligència artificial (IA) sense censura és una classe especial de Model de Llenguatge de Gran Grandària o sistema de IA generatiu que no inclou restriccions artificials per a la generació de les respostes. Per aconseguir això:

  • S'eliminen les capes de moderació.
  • Es fan servir conjunts de dades sense filtres previs.
  • Es publiquen amb llicències obertes perquè qualsevol els poden modificar.

Models d'intel·ligència artificial sense censura

Mentre alguns d'aquests models poden utilitzar-se a Linux localment, sempre que comptem amb el maquinari adequat. altres estan disponibles en línia i requereixen inscripció i fins i tot pagament de subscripció. L'avantatge dels models locals és la privadesa, però la contrapartida és que no tots podem costejar el maquinari adequat per córrer-lo.

Models locals

A l'article que veus citat a baix d'aquest paràgraf veuràs com instal·lar Ollama i utilitzar els models que ressenyo a continuació.

Ollama permet utilitzar de forma local models d'Intel·ligència Artificial
Article relacionat:
Ollama AI: Intel·ligència artificial a la terminal
  • truca2-uncensored: versió personalitzada del model de Meta en què dos desenvolupadors independents van remoure les restriccions.
  • dolphin-mixtral: Versió sense censura de la barreja de models Mixtral que és ideal per a tasques de codificació.
  • dolphin-mistral: No, no és una repetició de l'anterior amb un error de tipeig. aquest model sense restriccions està basat en el Mistral original i també sobresurt en tasques de codificació.
  • wizard-vicuna-uncensored: Un altre model basat en Flama 2 que ve en 3 varsions: 7, 13 i 30 milers de milions de paràmetres La de 7 es pot executar en equips amb 8 gb.
  • dolphincoder: Basat en StarCoder 2, aquest model és ideal per a tasques de codficació. Té una variant que pot córrer a 8 gb una a 32.
  • dolphin-phi: Està basat a Phi, una família de Models de Llenguatge de mida petita de Microsoft.
  • wizardlm-uncensored: Simplement la versió sense restriccions del model Wizard LM.
  • everythinglm: El terme “finestra de context” indica la quantitat d'informació que el model pot processar de forma simultània. Una finestra de context de 16K pot treballar amb fins a 16,000 tokens, equivalents a aproximadament 8,000 paraules o 16 pàgines de text. Això és el que pot fer aquest model basat en Flama 2.

Models per utilitzar en línia

  • Venice AI: Ofereix la possibilitat de xatejar sense censura. Les respostes s'emmagatzemen al dispositiu de l'usuari.
  • Uncensored AI: Assegura generar tot tipus de contingut sense cap mena de censura.

Deixa el teu comentari

La seva adreça de correu electrònic no es publicarà. Els camps obligatoris estan marcats amb *

*

*

  1. Responsable de les dades: Miguel Ángel Gatón
  2. Finalitat de les dades: Controlar l'SPAM, gestió de comentaris.
  3. Legitimació: El teu consentiment
  4. Comunicació de les dades: No es comunicaran les dades a tercers excepte per obligació legal.
  5. Emmagatzematge de les dades: Base de dades allotjada en Occentus Networks (UE)
  6. Drets: En qualsevol moment pots limitar, recuperar i esborrar la teva informació.