Meta está probando un nuevo enfoque en la carrera de la inteligencia artificial al utilizar los propios datos de las operaciones de los empleados para entrenar modelos de IA.
La empresa tiene previsto recopilar información de los movimientos del ratón, las operaciones del teclado y cómo los usuarios navegan en la computadora.
Esto es parte de los esfuerzos para encontrar nuevas fuentes de datos de entrenamiento, que se consideran el "combustible" central para ayudar a la IA a aprender a manejar tareas y responder a los usuarios de manera más eficiente.
Un representante de Meta dijo que si el objetivo es construir asistentes virtuales capaces de apoyar el trabajo diario en la computadora, entonces los modelos deben ser capacitados a partir de ejemplos reales. Datos como hacer clic, abrir menús o introducir texto ayudarán a la IA a comprender mejor cómo las personas interactúan con el software.
Para servir a este objetivo, Meta está implementando una herramienta interna para recopilar datos de entrada en ciertas aplicaciones.
La empresa afirma haber aplicado medidas para proteger la información confidencial y los datos solo se utilizan para fines de entrenamiento de IA, no para otros fines.
Sin embargo, este movimiento también ha suscitado muchas preocupaciones sobre la privacidad en la industria tecnológica. El hecho de que las actividades internas que antes se consideraban datos cerrados, ahora se hayan convertido en un recurso para la IA, muestra que la línea entre los datos personales y los datos de entrenamiento se está desvaneciendo cada vez más.
No solo Meta, la tendencia a explotar datos internos se está extendiendo en el mundo de la tecnología. Recientemente, muchos informes muestran que las empresas, especialmente las startups, se están convirtiendo en objetivos para recopilar datos de plataformas de trabajo como Slack o sistemas de gestión de tareas. Esta información se puede convertir en datos de capacitación para IA.
En un contexto de competencia feroz, la búsqueda de nuevas fuentes de datos es comprensible. Sin embargo, la gran pregunta es ¿cuál será el límite razonable entre la innovación tecnológica y la protección de la privacidad de los usuarios?