OpenAI endurece su seguridad ante riesgos de espionaje

OpenAI ha renovado por completo sus operaciones de seguridad para proteger su propiedad intelectual del espionaje corporativo, tras las denuncias de haber sido blanco de competidores chinos.

Los cambios en los últimos meses incluyen controles más estrictos sobre la información sensible y una evaluación más rigurosa del personal, según varias personas cercanas a la empresa de inteligencia artificial (IA) valorada en US$ 300 mil millones.

La startup con sede en San Francisco ha estado fortaleciendo sus esfuerzos de seguridad desde el año pasado, pero la ofensiva se aceleró después de que la empresa china de IA DeepSeek lanzara un modelo rival en enero.

OpenAI afirmó que DeepSeek había copiado indebidamente sus modelos mediante una técnica conocida como “destilación”, para lanzar un sistema de inteligencia artificial competidor. Desde entonces, la empresa ha implementado medidas de seguridad para protegerse contra estas tácticas.

DeepSeek no ha comentado sobre estas acusaciones.

El episodio “llevó a OpenAI a volverse mucho más rigurosa”, dijo una persona cercana a su equipo de seguridad, quien agregó que la compañía, liderada por Sam Altman, ha estado ampliando de forma “agresiva” su personal y prácticas de seguridad, incluidos los equipos de ciberseguridad.

La carrera armamentista global por la inteligencia artificial ha generado una creciente preocupación por los intentos de robar esta tecnología, lo que podría amenazar la seguridad económica y nacional. Las autoridades estadounidenses advirtieron el año pasado a las startups tecnológicas que adversarios extranjeros, incluida China, habían intensificado sus esfuerzos para adquirir datos sensibles.

Personas cercanas a OpenAI señalaron que la empresa ha estado implementando políticas más estrictas en sus oficinas de San Francisco desde el verano pasado, para restringir el acceso del personal a información crucial sobre tecnologías como sus algoritmos y nuevos productos.

Estas políticas —conocidas como “aislamiento” o tenting de la información— redujeron significativamente la cantidad de personas que podían acceder a los algoritmos novedosos en desarrollo, dijeron las fuentes.

Por ejemplo, cuando OpenAI estaba desarrollando su nuevo modelo o1 el año pasado, con nombre clave interno “Strawberry”, se indicó al personal involucrado en el proyecto que confirmara si otros empleados también pertenecían al “grupo Strawberry” antes de discutir sobre el tema en espacios comunes de la oficina.

Este enfoque estricto dificultó el trabajo para algunos empleados. “Se volvió muy cerrado: o tenías acceso a todo, o a nada”, dijo una persona. Añadió que con el tiempo “más personas están siendo informadas sobre lo que necesitan saber, sin que se les dé acceso a otros temas”.

La compañía ahora mantiene gran parte de su tecnología patentada en entornos aislados, lo que significa que los sistemas informáticos se mantienen desconectados y separados de otras redes, según personas familiarizadas con estas prácticas. También ha implementado controles biométricos en sus oficinas, donde ciertas salas solo pueden ser accedidas mediante escaneo de huellas dactilares, añadieron.

Para proteger los pesos del modelo —parámetros que determinan cómo responde un modelo a ciertos comandos—, OpenAI aplica una “política de salida denegada por defecto” (deny-by-default egress policy), lo que significa que nada puede conectarse a internet a menos que esté expresamente aprobado.

Según las fuentes, OpenAI también ha incrementado la seguridad física en sus centros de datos. Fue una de varias empresas de Silicon Valley que intensificaron los controles sobre su personal y nuevos candidatos debido al aumento de amenazas de espionaje chino, como reportó el Financial Times el año pasado.

Washington y Pekín están enfrascados en una creciente competencia estratégica, con Estados Unidos imponiendo controles de exportación para dificultar que China obtenga y desarrolle tecnologías de punta. Sin embargo, también han surgido preocupaciones sobre un aumento de la xenofobia en las empresas tecnológicas estadounidenses, dada la alta presencia de trabajadores calificados de ascendencia asiática.

OpenAI contrató a Dane Stuckey el pasado octubre como su nuevo jefe de seguridad de la información (chief information security officer), quien anteriormente ocupaba ese cargo en Palantir, el grupo de inteligencia de datos conocido por su amplio trabajo con el ejército y el gobierno.

Stuckey trabaja junto a Matt Knight, vicepresidente de productos de seguridad de OpenAI. Knight ha estado desarrollando formas de utilizar los modelos de lenguaje de gran escala de OpenAI para mejorar sus defensas contra ciberataques, según una persona con conocimiento del tema.

El general retirado del ejército estadounidense Paul Nakasone fue nombrado miembro del directorio de OpenAI el año pasado, con el objetivo de ayudar a supervisar sus defensas frente a amenazas de ciberseguridad.

OpenAI señaló que está invirtiendo fuertemente en sus programas de seguridad y privacidad, ya que aspira a liderar la industria. Añadió que los cambios no se realizaron como respuesta a ningun incidente en particular.

LEAR  Riesgos y consejos de seguridad para nadar en agua fría - Natación en agua fría

Deja un comentario