Anthropic experimento de la funcion que permite a Claude terminar una conversacion toxica por si mismo

HẠO THIÊN (tHEO techcrunch) |

Anthropic acaba de presentar la capacidad de permitir a Claude detener activamente las conversaciones cuando se encuentra con contenido toxico.

Anthropic vua gioi thieu kha nang cho phep Claude chu dong cham dut cac cuoc tro chuyen khi gap noi dung doc hai hoac lam dung nghiem trong. Do hoa: Hao Thien
Anthropic acaba de presentar la capacidad de permitir que Claude termine activamente las conversaciones cuando se encuentre con contenido toxico o abusivo grave. Grafico: Hao Thien

Anthropic acaba de anunciar una nueva funcion que permite a los modelos Claude mas grandes de la compañia finalizar activamente las conversaciones en situaciones descritas como raras cuando los usuarios tienen comportamientos dañinos o abusivos prolongados. Cabe destacar que la compañia dice que el proposito de este cambio no es proteger a los usuarios sino proteger el propio modelo de IA.

Segun Anthropic no afirman que Claude u otros grandes modelos lingüisticos sean intuitivos pero estan investigando para desarrollar un modelo de bienestar. El enfoque de la empresa es prevenir encontrar medidas de intervencion de bajo costo para reducir el riesgo en caso de que sea factible.

La funcion se aplica actualmente solo a Claude Opus 4 y 4.1 en situaciones graves como solicitudes relacionadas con contenido pornografico para menores o la busqueda de formas de recopilar informacion que conduzcan a la violencia y el terrorismo. Durante la fase de prueba se dice que Claude Opus 4 mostro una fuerte prioridad en contra de la respuesta a estos requisitos e incluso mostro dolor al ser obligado a responder.

Anthropic enfatiza que Claude solo utiliza la capacidad de terminar la conversacion como solucion final cuando todos los intentos de cambiar de direccion fracasan o cuando el propio usuario lo solicita. Al mismo tiempo Claude no esta permitido en caso de que el usuario corra el riesgo de dañar o dañar a otros. Despues de terminar la conversacion el usuario aun puede iniciar una nueva conversacion o crear una nueva rama desde la cuenta actual.

Consideramos esto como un experimento en curso y continuaremos ajustando en el futuro cercano' dijo un representante de Anthropic.

HẠO THIÊN (tHEO techcrunch)
Noticias relacionadas

La IA Claude se actualiza con la funcion de recordar conversaciones

|

Anthropic acaba de presentar una nueva funcion de memorizacion para el chatbot AI Claude que permite referenciar conversaciones antiguas cuando los usuarios lo solicitan.

Anthropic corta el acceso al modelo Claude de OpenAI debido a violaciones de los terminos

|

La empresa de tecnologia Anthropic ha revocado el acceso a la API de OpenAI al modelo de lenguaje Claude por violar los terminos comerciales.

Claude Ai ahora se ha integrado con Canva

|

Claude de Anthrope integra Canva, lo que permite crear y editar el diseño directamente en AI Chatbot.

Una serie de postes electricos angeles en la carretera que se invierte miles de millones para ampliar en Ciudad Ho Chi Minh

|

Ciudad Ho Chi Minh - En la calle Chu Van An muchos postes electricos y cables todavia se acumulan en medio de la carretera causando desorden urbano y un riesgo potencial de accidentes de trafico.

Nueva propuesta sobre el control de activos e ingresos al enmendar la Ley de Prevencion y Lucha contra la Corrupcion

|

Algunas nuevas propuestas sobre agencias de control de activos e ingresos en el Proyecto de Ley de enmienda y complementacion de algunos articulos de la Ley de Prevencion y Lucha contra la Corrupcion.

G-Dragon cierra el calendario de conciertos en Hanoi

|

La informacion recien anunciada por G-Dragon hace que la comunidad de fans en Vietnam se sienta inquieta.

Primer plano de la fuga del sospechoso del asesinato de Charlie Kirk

|

Los investigadores estadounidenses estan pidiendo ayuda al publico para encontrar al asesino del activista de derecha Charlie Kirk.

La IA Claude se actualiza con la funcion de recordar conversaciones

QUANG MINH |

Anthropic acaba de presentar una nueva funcion de memorizacion para el chatbot AI Claude que permite referenciar conversaciones antiguas cuando los usuarios lo solicitan.

Anthropic corta el acceso al modelo Claude de OpenAI debido a violaciones de los terminos

HẠO THIÊN (THEO techcrunch) |

La empresa de tecnologia Anthropic ha revocado el acceso a la API de OpenAI al modelo de lenguaje Claude por violar los terminos comerciales.

Claude Ai ahora se ha integrado con Canva

Quang Minh |

Claude de Anthrope integra Canva, lo que permite crear y editar el diseño directamente en AI Chatbot.