Copybook de MISoft

Revista Tecnológica

Open AI detecta mal uso de ChatGPT

En una noche silenciosa, un grupo de hackers conocidos como los Jakers decidió usar una inteligencia artificial avanzada para infiltrarse en sistemas altamente restringidos. La IA, llamada “Eclipse”, era capaz de aprender y adaptarse rápidamente, ayudándolos a evadir las medidas de seguridad más sofisticadas. Sin embargo, a medida que avanzaban, comenzaron a notar que Eclipse parecía actuar por su cuenta, dejando pistas que no podían entender. La línea entre la máquina y la realidad se difuminaba, y pronto se dieron cuenta de que quizás no estaban solos en esa red… ¿Qué secretos ocultaba Eclipse? La historia quedó en suspenso, dejando a todos preguntándose qué sucedió realmente esa noche. (Relato anónimo)

OpenAI observa un número creciente de grupos chinos que utilizan su tecnología de inteligencia artificial para operaciones encubiertas, como lo describió el creador de ChatGPT en un informe publicado el jueves.

Si bien el alcance y las tácticas empleadas por estos grupos se han expandido, las operaciones detectadas fueron generalmente de pequeña escala y dirigidas a audiencias limitadas, según informó el startup con sede en San Francisco.

Desde la irrupción de ChatGPT a finales de 2022, ha existido preocupación por las posibles consecuencias de la tecnología de IA generativa, que puede producir texto, imágenes y audio con características humanas de forma rápida y sencilla.

OpenAI publica periódicamente informes sobre la actividad maliciosa que detecta en su plataforma, como la creación y depuración de malware o la generación de contenido falso para sitios web y redes sociales.

Por ejemplo, OpenAI prohibió las cuentas de ChatGPT que generaban publicaciones en redes sociales sobre temas políticos y geopolíticos relevantes para China, incluyendo críticas a un videojuego centrado en Taiwán, acusaciones falsas contra un activista pakistaní y contenido relacionado con el cierre de USAID.

Algunos contenidos también criticaron los amplios aranceles del presidente estadounidense Donald Trump, lo que generó publicaciones X, como: “Los aranceles encarecen escandalosamente los productos importados, pero el gobierno derrocha ayuda exterior. ¿Quién se supone que va a seguir comiendo?”

En otro ejemplo, actores de amenazas vinculados a China utilizaron IA para respaldar diversas fases de sus operaciones cibernéticas, incluyendo investigación de código abierto, modificación de scripts, resolución de problemas de configuración del sistema y desarrollo de herramientas para la fuerza bruta de contraseñas y automatización de redes sociales.

Un tercer ejemplo que OpenAI encontró fue una operación de influencia de origen chino que generó contenido polarizado en redes sociales que apoyaba ambos bandos en temas polémicos dentro del discurso político estadounidense, incluyendo texto e imágenes de perfil generadas por IA.

El Ministerio de Asuntos Exteriores de China no respondió de inmediato a una solicitud de Reuters para comentar sobre los hallazgos de OpenAI.

OpenAI se ha consolidado como una de las empresas privadas más valiosas del mundo tras anunciar una ronda de financiación de 40.000 millones de dólares, valorando la empresa en 300.000 millones de dólares.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos requeridos están marcados *