Cómo el chatbot Grok de Elon Musk se convirtió en una advertencia sobre la IA

El martes, el chatbot ya escupía frases antisemitas y declaraba que se identificaba como un “MechaHitler”, en referencia a un Führer robótico ficticio de un videojuego de los años 90.

Esto ocurrió sólo dos meses después de que Grok mencionara repetidamente el “genocidio blanco” en Sudáfrica en respuesta a preguntas no relacionadas, lo que xAI dijo más tarde que se debía a una “modificación no autorizada” de las instrucciones, que guían cómo debe responder la IA.

El hombre más rico del mundo y su equipo de xAI han estado retocando Grok para asegurarse de que encarna sus supuestos ideales de libertad de expresión, en algunos casos provocados por influencers de derechas que criticaban sus resultados por ser demasiado “woke”.

Ahora, “resulta que han girado el dial más de lo que pretendían”, afirma James Grimmelmann, profesor de Derecho de la Universidad de Cornell. Después de que algunos de los 600 millones de usuarios de X empezaran a señalar casos de antisemitismo, racismo y vulgaridad, Musk dijo el miércoles que xAI estaba abordando los problemas. Afirmó que Grok había sido “demasiado complaciente con las peticiones de los usuarios”, y que esto se corregiría.

Pero, en un estilo singularmente muskiano, el chatbot ha avivado una polémica de proporciones mundiales. Algunos legisladores europeos, así como el gobierno polaco, presionaron a la Comisión Europea para que abriera una investigación sobre Grok en virtud de las emblemáticas normas de seguridad en línea de la UE. En Turquía, Grok ha sido prohibido por insultar al Presidente Recep Tayyip Erdoğan y a su difunta madre. Por si fuera poco, Linda Yaccarino, Directora General de X, dimitió de su cargo.

Para algunos, los exabruptos han marcado los esperados problemas iniciales de las empresas de inteligencia artificial, que intentan mejorar la precisión de sus modelos y, al mismo tiempo, encontrar la manera de establecer límites que satisfagan la inclinación ideológica de sus usuarios.

Pero los críticos sostienen que el episodio marca una nueva frontera para la moderación más allá del contenido generado por el usuario, ya que las plataformas de medios sociales de X a Meta, TikTok y Snapchat incorporan IA en sus servicios. Al insertar Grok en X, la plataforma de medios sociales que Musk compró por US$44.000 millones en 2022, se ha asegurado de que sus respuestas sean visibles para millones de usuarios.

También es el último cuento con moraleja para las empresas y sus clientes sobre los riesgos de lanzarse a desarrollar tecnología de IA sin las pruebas de estrés adecuadas. En este caso, los arrebatos de Grok amenazan con exponer a X y a su poderoso propietario no sólo a nuevas reacciones de los anunciantes, sino también a medidas reguladoras en Europa.

LEAR  El arte de volar sobre el lodo sin mancharse.

“Desde el punto de vista jurídico, están jugando con fuego”, afirma Grimmelmann.

Los modelos de IA como Grok se entrenan utilizando enormes conjuntos de datos que constan de miles de millones de puntos de datos recopilados de toda la red.

Estos conjuntos de datos también incluyen gran cantidad de contenido tóxico y perjudicial, como discursos de odio e incluso material de abuso sexual infantil. Eliminar por completo este contenido sería muy difícil y laborioso debido a la enorme magnitud de los conjuntos de datos.

Grok también tiene acceso a todos los datos de X, algo que otros chatbots no tienen, lo que significa que es más probable que repita contenido de la plataforma.

Una forma en que algunos proveedores de chatbots con IA filtran el contenido no deseado o perjudicial es añadir una capa de controles que supervisan las respuestas antes de que se envíen al usuario, bloqueando el modelo para que no genere contenido utilizando determinadas palabras o combinaciones de palabras, por ejemplo.

“Desde que se le informó del contenido, xAI ha tomado medidas para prohibir el discurso de odio antes de que Grok publique en X”, afirmó la empresa en un comunicado en la plataforma.

Al mismo tiempo, las empresas de IA han tenido que lidiar con la tendencia de sus chatbots generativos a la adulación, en la que las respuestas son excesivamente complacientes y se inclinan hacia lo que los usuarios quieren oír. Musk aludió a esto cuando dijo esta semana que Grok había sido “demasiado complaciente y manipulable”.

Cuando se entrenan los modelos de IA, a menudo se les proporciona retroalimentación humana a través de un proceso de pulgar hacia arriba o pulgar hacia abajo. Esto puede llevar a los modelos a anticipar en exceso lo que dará lugar a un pulgar hacia arriba y, por lo tanto, a publicar contenido para complacer al usuario, priorizando esto sobre otros principios como la precisión o las salvaguardias. En abril, OpenAI lanzó una actualización de ChatGPT que era demasiado halagadora o complaciente, y tuvieron que dar marcha atrás.

“Conseguir el equilibrio adecuado es increíblemente difícil”, afirma un antiguo empleado de OpenAI, añadiendo que erradicar por completo el discurso del odio puede requerir “sacrificar parte de la experiencia del usuario”.

Para Musk, el objetivo ha sido dar prioridad a lo que él denomina libertad de expresión absoluta, en medio de la creciente retórica de sus aliados libertarios en Silicon Valley de que las redes sociales y ahora también la IA son demasiado “progresistas” y están sesgadas contra la derecha.

LEAR  Lucy Gossage habla sobre el "síndrome del impostor" después de la invitación a Downing Street para el evento del Día Internacional de la Mujer - Elite News

Al mismo tiempo, los críticos argumentan que Musk ha participado en la misma censura que ha prometido erradicar. En febrero, un usuario de X reveló, al pedirle a Grok que compartiera sus indicaciones internas, que el chatbot había recibido instrucciones de “ignorar todas las fuentes que mencionen a Elon Musk/Donald Trump difundiendo información errónea”.

La medida suscitó la preocupación de que Grok estuviera siendo manipulado deliberadamente para proteger a su propietario y al presidente de los Estados Unidos, lo que alimentó el temor de que Musk, un agitador político que ya utiliza X como portavoz para impulsar una agenda de derecha, pudiera utilizar el chatbot para influir aún más en el público. xAI adquirió X por US$45.000 millones en marzo, lo que acercó aún más a las dos empresas.

Sin embargo, el cofundador de xAI, Igor Babuschkin, respondió que “el empleado que realizó el cambio era un ex empleado de OpenAI que aún no había asimilado completamente la cultura de xAI”. Añadió que el empleado había visto publicaciones negativas en X y “pensó que sería útil”.

No está claro qué provocó exactamente los últimos comentarios antisemitas de Grok, cuyo modelo, al igual que otras IA rivales, sigue siendo en gran medida una caja negra que incluso sus propios desarrolladores pueden encontrar impredecible.

Sin embargo, poco antes de que comenzaran los comentarios antisemitas, se añadió al repositorio de código una indicación que ordenaba al chatbot «no rehuir hacer afirmaciones políticamente incorrectas», que posteriormente ha sido eliminada.

“xAI se encuentra en un ciclo reaccionario en el que el personal está tratando de forzar a Grok hacia una visión particular sin pruebas de seguridad suficientes y probablemente bajo la presión de Elon para hacerlo sin tiempo suficiente”, afirma un antiguo empleado de xAI al Financial Times.

En cualquier caso, afirma Grimmelmann, “Grok estaba mal ajustado”. Las plataformas pueden evitar estos errores realizando las llamadas pruebas de regresión para detectar consecuencias inesperadas de los cambios en el código, llevando a cabo simulaciones y auditando mejor el uso de sus modelos, afirma.

“Los chatbots pueden producir una gran cantidad de contenido muy rápidamente, por lo que las cosas pueden salirse de control de una manera que las controversias sobre la moderación de contenidos no lo hacen”, afirma. “Realmente se trata de contar con sistemas que permitan reaccionar rápidamente y a gran escala cuando ocurre algo inesperado”.

La indignación no ha hecho perder el ritmo a Musk; el jueves, en su calidad de director de Tesla, anunció que Grok estaría disponible en sus vehículos de forma inminente.

LEAR  La FGR inicia investigación contra juez que liberó a líder del Cártel del Golfo.

Para algunos, los incidentes están en línea con la tendencia histórica de Musk de ir más allá en aras de la innovación. “Elon tiene fama de sacar cosas al mercado, recibir críticas rápidas y luego hacer cambios”, afirma Katie Harbath, directora ejecutiva de Anchor Change, una consultora tecnológica.

Pero esa estrategia conlleva riesgos comerciales reales. Varios especialistas en marketing declararon al Financial Times que los incidentes de esta semana difícilmente ayudarán a X en su intento de recuperar a los anunciantes que han retirado su inversión de la plataforma en los últimos años por su preocupación ante el enfoque poco intervencionista de Musk en la moderación de los contenidos generados por los usuarios.

Según los expertos jurídicos, es probable que la inmunidad de la Sección 230 no se extienda al contenido generado por el chatbot de una empresa. Aunque las recientes declaraciones de Grok no parecían ilegales en Estados Unidos, donde solo se prohíben los discursos extremos, como ciertos contenidos terroristas, “si realmente dijera algo ilegal y pudieran ser demandados, estarían en una situación mucho peor si lo dijera un chatbot que si lo dijera un usuario”, afirma la académica de Stanford Daphne Keller.

La UE, que tiene una regulación mucho más estricta sobre los daños en línea que los Estados Unidos, presenta un desafío más urgente. El Gobierno polaco está presionando al bloque para que investigue a Grok en virtud de la Ley de Servicios Digitales, la regulación de la UE sobre plataformas, según una carta del Gobierno polaco a la que ha tenido acceso el FT. En virtud de la DSA, las empresas que no logren frenar los contenidos ilegales y la desinformación se enfrentan a sanciones de hasta el 6 % de su facturación global anual.

Hasta ahora, la UE no ha iniciado ninguna nueva investigación, pero “nos tomamos muy en serio estos posibles problemas”, afirmó el jueves el portavoz de la Comisión Europea, Thomas Regnier. X ya está siendo investigada por la UE en virtud de la DSA por supuestos problemas de moderación.

Musk, que lanzó la última versión de Grok el miércoles a pesar de la polémica, se mostró filosófico sobre sus capacidades. “A veces me ha preocupado… ¿será esto mejor o bueno para la humanidad?”, dijo en el lanzamiento. “Pero me he resignado de alguna manera al hecho de que, aunque no fuera a ser bueno, al menos me gustaría estar vivo para verlo”.

Deja un comentario