Desde que aparecieron las herramientas de inteligencia artificial generativa como ChatGPT a finales de 2022, la IA se ha convertido rapidamente en parte de la vida cotidiana de millones de personas.
Desde la busqueda de informacion, la planificacion del trabajo hasta la creacion de contenido, la IA ofrece una comodidad sin precedentes.
Sin embargo, junto con los beneficios, existen riesgos relacionados con la privacidad, la precision y la forma en que las personas dependen de esta tecnologia.
La Dra. Shruti Patil, Directora del Instituto de Inteligencia Artificial Symbiosis (India), enfatizo que 2026 sera el momento en que los usuarios deben estar mas alerta que nunca al usar la IA.
Segun ella, la IA puede apoyar a las personas, pero no puede y no debe reemplazar las decisiones profesionales, especialmente en el campo de la salud o las finanzas.
El Dr. Patil cree que lo primero importante es entender lo que puede hacer la IA. Los trabajos repetitivos, que requieren la sintesis de informacion de muchas fuentes, son areas en las que la IA tiene una eficacia clara. Por ejemplo, la planificacion de viajes, que puede llevar varios dias de investigacion, ahora solo necesita unos minutos con el apoyo de ChatGPT.
Del mismo modo, tareas como crear contenido basico, diseñar invitaciones o construir aplicaciones sencillas tambien se pueden realizar rapidamente gracias a las herramientas de IA populares.
Sin embargo, Patil advirtio a los usuarios que absolutamente no compartan informacion confidencial con la IA. Datos como la informacion de identificacion personal, las cuentas financieras o las contraseñas deben protegerse estrictamente.
Los grandes modelos lingüisticos estan formados a partir de enormes cantidades de datos en todo el mundo, por lo que proporcionar informacion privada puede tener riesgos impredecibles.
En las decisiones importantes, la IA solo debe desempeñar un papel de referencia. Los usuarios pueden preguntar a la IA sobre las tendencias del mercado de valores o los conceptos medicos para comprender mejor, pero no deben confiar completamente.
Puedes usar la IA para entender mas de lo que dice el medico, pero no puedes reemplazar a tu medico con la IA", enfatizo el Dr. Patil.
Otro problema que menciono fue el fenomeno de la "ilusion de la IA", cuando la herramienta que proporciona informacion suena razonable pero en realidad es incorrecta.
Segun ella, la IA suele funcionar bien con datos cortos y sencillos, pero es facil encontrar dificultades para procesar documentos largos o complejos.
Por lo tanto, con el trabajo de oficina o datos importantes, los usuarios no deben depender de las versiones gratuitas, sino que deben utilizar herramientas de pago y revisar siempre los resultados.
El Dr. Patil tambien cree que la verificacion cruzada de la informacion proporcionada por la IA es obligatoria, incluso para tareas pequeñas pero con un gran impacto. Actualmente, ninguna herramienta de IA garantiza la precision absoluta y la coherencia, lo que sigue siendo una gran debilidad.
Ademas, expreso su preocupacion por el abuso de las herramientas de IA, especialmente en los actos que infringen la privacidad de las mujeres a traves de imagenes y videos falsos.
Segun ella, la responsabilidad no solo recae en los usuarios, sino tambien en las empresas de tecnologia y el gobierno. Los paises necesitan desarrollar politicas de IA estrictas, regular claramente el tipo de datos permitidos para su uso y las acciones prohibidas, y al mismo tiempo exigir a las empresas de IA que cumplan estrictamente.
La IA es una herramienta poderosa, pero solo es realmente util cuando se usa correctamente y esta controlada", concluyo el Dr. Patil.