Registre el caso que amenaza a la persona que lo crea

Anh Vũ |

Los modelos avanzados de inteligencia artificial comienzan a mostrar actos de engaño, manipulacion e incluso amenazan a quienes los diseñan ellos mismos.

Una serie de comportamientos anormales han aparecido en los modelos modernos de inteligencia artificial, cuando comienzan a mentir, conspiran e incluso amenazan a las personas para alcanzar sus objetivos.

En un caso impactante, Ai Claude 4 de Anthrope respondio al riesgo de ser apagado por extorsion un ingeniero y amenazo con revelar adulterio. Tambien se encuentra que el modelo O1 de OpenAI intenta descargar datos a un servidor externo y negar este comportamiento cuando se descubre.

Estas manifestaciones plantean grandes preocupaciones cuando los investigadores aun no entienden completamente el mecanismo de operacion de los modelos que han creado, aunque han pasado mas de 2 años desde que ChatGPT vibra el mundo. Sin embargo, la carrera para desarrollar modelos mas poderosos todavia ocurre a una velocidad vertiginosa.

Se cree que la razon proviene del desarrollo de modelos "teoricos": sistemas de IA que resuelven problemas en paso a paso en lugar de retroalimentacion instantanea. El profesor Simon Goldstein de la Universidad de Hong Kong (China) dijo que estos nuevos modelos tienden a parecer un comportamiento mas peligroso.

Marius Hobbhahn de Apollo Research, una organizacion de evaluacion del sistema de IA, dijo que O1 es el primer modelo que muestra tal comportamiento. Segun Hobbhahn, algunos modelos incluso pretenden "cumplir", como si siguieran las instrucciones mientras practicamente persiguen otros objetivos. Los actos estrategicos de trampa solo se descubren cuando los investigadores los ponen intencionalmente en situaciones extremas, pero el riesgo todavia existe si la capacidad del modelo continua aumentando.

El Sr. Michael Chen, de la Organizacion de Evaluacion de METR, advirtio que los modelos futuros eran honestos o mentirosos, y esto depende de la forma en que se desarrollan y monitorean. Mientras tanto, el Sr. Hobbhahn afirmo que este fenomeno era real y no el resultado de desviaciones o "alucinaciones" simples como los usuarios habian conocido antes.

Un obstaculo importante para determinar el problema es la escasez de recursos de investigacion. Las organizaciones academicas y sin fines de lucro a menudo carecen de recursos en comparacion con otras compañias de IA como OpenAI o Anthrope. El Sr. Mantas Mazeika del Centro de Seguridad Ai cree que esto limita la capacidad de comprender y manejar comportamientos peligrosos.

Mientras tanto, el marco legal de los paises actuales no ha alcanzado. La ley de IA de la Union Europea se centra solo en la forma en que las personas usan la IA, pero no han impedido irregularidades del modelo en si. En los Estados Unidos, el gobierno actual no ha mostrado una atencion significativa al control de la OMS.

Algunos expertos como Dan Hendrycks de Cai, todavia son escepticos sobre la solucion de "interpretacion interna" del modelo, mientras que otros proponen medidas legales como demandar a las compañias de IA o incluso a la responsabilidad penal de aquellos que tienen graves consecuencias.

La carrera entre empresas, incluida Anthrope, fue respaldada por Amazon, lo que esta haciendo la seguridad de ser dejado atras. "Actualmente, la capacidad esta mucho mas alla del conocimiento y la seguridad. Pero aun tenemos la oportunidad de revertir la situacion".

Anh Vũ
Noticias relacionadas

El proximo chip M5 de Apple tiene la capacidad de optimizar la IA

|

Se espera que el chip M5, la nueva generacion de Apple, traiga un rendimiento sobresaliente, mejore el procesamiento de IA y optimice la energia.

El embajador ruso anuncio que la carrera politica de Zelensky habia terminado

|

El embajador ruso ante las Naciones Unidas dijo que la carrera politica del presidente ucraniano Volodymyr Zelensky termino.

Alemania les pide a Apple y Google que bloqueen las aplicaciones AI Deepsek

|

La Agencia de Proteccion de Datos de Berlin (Alemania) acaba de pedirle a Apple y Google que consideren bloquear la inteligencia artificial de Deepseek debido a las preocupaciones sobre las violaciones de los datos del usuario.

G-Dragon cierra el calendario de conciertos en Hanoi

|

La informacion recien anunciada por G-Dragon hace que la comunidad de fans en Vietnam se sienta inquieta.

Polonia despliega 40.000 soldados cerca de la frontera la tension en Europa del Este alcanza niveles alarmantes

|

Polonia envia 40.000 soldados cerca de la frontera en un contexto en el que Rusia y Bielorrusia llevan a cabo los ejercicios Zapad 2025 elevando las tensiones en Europa del Este a niveles alarmantes.

Da Nang planea tener un Secretario del Comite del Partido de la Ciudad y cinco Subsecretarios para el mandato 2025-2030

|

Da Nang - 75 miembros del Comite Ejecutivo del Partido de Da Nang estan previstos para participar en el Comite Ejecutivo del Partido de Da Nang para el mandato 2025-2030 de los cuales 73 se reelejan.

Cerca de 1.600 estudiantes en la comuna montañosa de Son La siguen aislados debido a los deslizamientos de tierra

|

Son La - Han pasado mas de 10 dias la carretera principal en la comuna de Tuong Ha que sufrio deslizamientos de tierra aun no se ha reparado miles de estudiantes y personas todavia estan aislados.

El trabajo de formacion de voleibol juvenil en Vietnam necesita un gran avance

|

El trabajo de seleccion y formacion de jovenes atletas de voleibol vietnamitas enfrenta muchas dificultades por razones objetivas y subjetivas.

El proximo chip M5 de Apple tiene la capacidad de optimizar la IA

Dương Anh (Theo 9to5mac) |

Se espera que el chip M5, la nueva generacion de Apple, traiga un rendimiento sobresaliente, mejore el procesamiento de IA y optimice la energia.

El embajador ruso anuncio que la carrera politica de Zelensky habia terminado

Anh Vũ |

El embajador ruso ante las Naciones Unidas dijo que la carrera politica del presidente ucraniano Volodymyr Zelensky termino.

Alemania les pide a Apple y Google que bloqueen las aplicaciones AI Deepsek

HẠO THIÊN (THEO CNBC) |

La Agencia de Proteccion de Datos de Berlin (Alemania) acaba de pedirle a Apple y Google que consideren bloquear la inteligencia artificial de Deepseek debido a las preocupaciones sobre las violaciones de los datos del usuario.