Un día, necesité desinfectar una entrada de HTML y fui a ver cómo el gem Loofah resolvía un problema que tenía.
Por curiosidad, le pedí a ChatGPT que me proporcionara un ejemplo de cómo hacerlo.
La respuesta que me dio fue una copia exacta de Loofah. Excepto que no había atribución. Solo supe que era una copia porque había mirado primero la implementación de Loofah.
Esto no me pareció nada bien. Lo compartí con mis colegas y decidimos empezar a escribir sobre la reciente popularización de los Grandes Modelos Lingüísticos (LLMs) y las implicaciones éticas de estas supuestas herramientas “revolucionarias” de Inteligencia Artificial (AI).
Hay mucha discusión sobre el “uso justo” de los datos de entrenamiento. Y no soy la única que cuestiona ese argumento. Quería hacer algo al respecto.
Mi increíble colega, Mike Burns, aceptó mi invitación para una serie de publicaciones en blogs que profundizan en este tema. Decidimos empezar desde el principio.
¿Por dónde empezar para entender más sobre la IA y los LLMs?
En esta primera publicación, Mike sienta las bases para los próximos capítulos. El enfoque está en la implementación tecnológica de los LLMs, y no en las empresas que los comercializan (estén atentos para la próxima publicación).
La mayor parte de la conversación sobre la IA no tiene nada que ver con la IA, y se centra principalmente en desviar la responsabilidad y la culpa de las personas hacia los “algoritmos”.
IA Generativa y LLMs
Yo, (Mike), no sé qué es la IA generativa, así que hablemos de los Modelos de Lenguaje de Gran Tamaño (LLMs).
Un Modelo de Lenguaje de Gran Tamaño es un conjunto de estructuras de datos y algoritmos. Puedes pensar en ello como listas enlazadas y búsqueda binaria: un conjunto de herramientas en la caja de herramientas del programador, con casos de uso específicos y desventajas.
Algunos capitalistas de riesgo y pensadores visionarios los han convertido en algo que no son. A menudo, los han convertido en un chivo expiatorio para sus propios objetivos, un requisito previo para permitirles hacer lo que quieren.
Hablemos de eso.
Los LLMs no vienen por tu trabajo
Un LLM no está gestionando una empresa; eso lo hacen personas en la empresa. Entonces, si alguien dice que “los LLMs vienen por tu trabajo”, lo que quieren decir es que una persona te va a despedir y luego hará que un software haga tu trabajo. Esa persona está tomando esa decisión.
Los algoritmos que usan LLMs tienen un caso de uso específico. Generan:
- palabras
- píxeles
- bytes
No producen palabras correctas, producen palabras probables. Piensa en la función de teclado predictivo de tu teléfono, pero mejor.
Las tareas que haces en el trabajo probablemente no puedan ser reemplazadas por tal algoritmo. Entonces, cuando un gerente despide a alguien y luego usa software para hacer su trabajo, esa es una decisión que el gerente está tomando a expensas del cliente.
Y esa es una elección. De un humano.
(Stefanni aquí)
Ya que estamos hablando del impacto de estas herramientas, como con cualquier otra herramienta “revolucionaria”, nunca podemos saber qué sucederá. O si de verdad es una herramienta revolucionaria después de todo. Estoy de acuerdo con el video de Cal Newport sobre “La Revolución de la IA: Cómo Adelantarse Mientras Otros Entran en Pánico”.
¿Podría ser que las empresas se den cuenta de que ChatGPT no hace cosas extraordinarias que un empleado regular no pueda hacer? ¿O que contratar a una persona para hacer el trabajo es más barato que pagar por solicitudes de API?
Supongo que pronto lo descubriremos.
De vuelta a Mike.
Los LLMs no plagian obras de arte
OpenAI, uno de los grandes nombres que comercializan LLMs, entrenó su LLM en la Web sobre septiembre de 2021. GitHub, otra empresa que invierte mucho en LLMs, entrenó el suyo en los repositorios que alojan.
DeviantArt, Meta, Microsoft, Stability, Midjourney, Grammarly, StackOverflow y otros, han hecho prácticas similares: entrenando sus LLMs en obras creadas por otros, sin su consentimiento.
Esta fue una elección que todos ellos hicieron. Esto no es un requisito para entrenar un LLM.
Los LLMs son una herramienta
Todo esto es para señalar que los algoritmos y estructuras de datos que componen un LLM son una herramienta, no productos, y la gente necesita tener cuidado con las herramientas que usa.
Por supuesto, esto no es nuevo. Los LLM no introdujeron la idea de que el software perjudica a las personas.
En cada punto de la historia de las computadoras, hemos tenido que lidiar con la ética de los productos que estamos creando.
Ningún aspecto de las estructuras de datos disponibles ha facilitado o dificultado eso. Todavía es nuestra elección desarrollar un producto para hacer el bien, y es nuestra carga de responsabilidad considerar los efectos sistémicos de los productos que desarrollamos.
Tus herramientas de programación tienen sesgos
Ya sea el stack fuertemente opinado de Rails o el mundo opinadamente sin opinión de las bibliotecas de JavaScript, cómo modelamos el software está moldeado por las API que se nos dan.
Exploremos eso en el contexto de una API de LLM modelada: OpenAI.
OpenAI es una API de red
Todo esto es discutible para la gran mayoría de nosotros:
No estamos construyendo LLMs.
En cambio, hacemos llamadas a API a puntos finales que afirman estar respaldados por LLMs.
Así como cuando haces una llamada a la API para obtener la tasa de cambio de una moneda, necesitas ser claro contigo mismo y tus usuarios sobre las limitaciones de los datos. Aquí no hay nada nuevo.
Y al igual que cuando registras datos en tu plataforma de soporte al cliente, debes tener cuidado con los datos que envías. Para nosotros, que somos consultores en nuestra cuarta capacitación de HIPAA, esto tampoco es nuevo.
¿Cuáles son los problemas específicos e inherentes de los LLMs y los GPTs?
Los Transformadores Generativos Preentrenados (GPTs), como los que usa ChatGPT de OpenAI, son terribles para el medio ambiente. Absolutamente pésimos. Son malos de una forma única y novedosa.
Nota rápida: exploraremos más esta sección en la próxima publicación.
Tu ética impulsa el producto, no tus herramientas
El resumen de todo esto es que la existencia de algoritmos y estructuras de datos de LLM no es una amenaza. Si puedes encontrar una forma de hacer uso de una computadora que es mala en matemáticas y a veces incorrecta, eso por sí solo no es un problema.
La crisis existencial está en hacer un producto que perjudica a las personas, lo cual se puede hacer con o sin LLMs. Es tu responsabilidad construir tus productos con cuidado, ya sea que uses la clasificación por inserción o aprendizaje automático.
¿Cuál es tu responsabilidad y qué es correcto hacer?
Como con cualquier otra herramienta que presenta problemas éticos generalizados, entender cómo funcionan es crítico para que podamos hacer algo al respecto.
Esperamos que esta publicación haya aclarado algunos términos sobre la IA, LLMs, GPTs, etc.
En la próxima publicación, exploraremos más a fondo el lado comercial y de producto de las empresas que entrenan LLMs, incluyendo el impacto en nuestro medio ambiente.
Mientras tanto, tenemos una pregunta para ti: ¿conoces algún LLM entrenado éticamente, o LLM que respete los derechos de autor? Si es así, nos encantaría saberlo.