La IA ya está interpretando tus emociones y advierten que debe ser regulada por la ley

La inteligencia artificial ya no solo procesa datos, sino que interpreta emociones y conductas humanas en tiempo real. Mientras tanto, la legislación permanece anclada en conceptos del pasado, según revela una investigación de Leire Escajedo San-Epifanio, profesora de Derecho Constitucional en la Universidad del País Vasco.Te puede interesar:Así puedes limpiar la papelera oculta de WhatsApp y lograr que tu celular funcione más rápido

Este desfase entre la innovación tecnológica y la regulación jurídica plantea interrogantes sobre la protección de derechos fundamentales y la transparencia en el uso de sistemas biométricos no identificantes.

PUBLICIDADhttps://afdf23356166b1255cc14f74e0bd3a9f.safeframe.googlesyndication.com/safeframe/1-0-45/html/container.html

El estudio, titulado “Tratamientos biométricos no identificantes mediante inteligencia artificial”, expone cómo las tecnologías actuales son capaces de deducir estados emocionales y patrones de comportamiento a partir de señales corporales, sin que la persona lo haya expresado de forma directa.Te puede interesar:La nueva herramienta de WhatsApp que refuerza la seguridad de sus chats y datos sensibles

La investigación advierte que la normativa europea, tanto el Reglamento General de Protección de Datos como el Reglamento Europeo de Inteligencia Artificial, aún no aborda de manera adecuada estos nuevos escenarios.

PUBLICIDADhttps://afdf23356166b1255cc14f74e0bd3a9f.safeframe.googlesyndication.com/safeframe/1-0-45/html/container.html(Imagen Ilustrativa Infobae)La investigación de la Universidad del País Vasco alerta sobre los riesgos de la biometría impulsada por inteligencia artificial en la privacidad y autonomía. (Imagen Ilustrativa Infobae)

Cómo la IA interpreta emociones y conductas

Teléfonos móviles, asistentes virtuales, plataformas de atención al cliente y videojuegos utilizan tecnologías relacionadas con la biometría que, en lugar de identificar a la persona, buscan interpretar su estado anímico y su comportamiento en cada momento.Te puede interesar:Mark Zuckerberg tiene claro cuál es el dispositivo que remplazará pronto al celular

Estos sistemas pueden detectar si una persona está atenta, muestra interés o cansancio, cuánto tiempo se detiene ante determinado contenido y cómo reacciona a los estímulos digitales. La información recogida se utiliza para personalizar la experiencia del usuario, ajustando desde vídeos hasta anuncios o mensajes destinados a captar la atención e incluso influir en la toma de decisiones.

PUBLICIDAD

A diferencia de las aplicaciones tradicionales de la biometría, como el reconocimiento de huellas dactilares o el desbloqueo facial, en este caso el objetivo no es la identificación, sino la interpretación del comportamiento humano y de los estados emocionales.

El salto tecnológico consiste en pasar de registrar datos explícitos proporcionados por el usuario a deducir información íntima y subjetiva sin mediación consciente.

PUBLICIDAD(Imagen Ilustrativa Infobae)Teléfonos móviles y asistentes virtuales utilizan inteligencia artificial para deducir estados emocionales y patrones de comportamiento sin consentimiento expreso.(Imagen Ilustrativa Infobae)

Riesgos para los derechos fundamentales y la libertad personal

La investigación de Escajedo San-Epifanio identifica riesgos sustanciales en el uso de tecnologías biométricas no identificantes. Uno de los principales es la posibilidad de influir en las decisiones individuales mediante la adaptación continua del entorno digital, basada en el comportamiento observado.

Esto compromete la libertad personal, ya que el usuario puede ser guiado o condicionado sin ser plenamente consciente de cómo ocurre ese proceso.

PUBLICIDAD

Además, la clasificación automática de las personas según su comportamiento introduce problemas de desigualdad, al crear perfiles que pueden ser utilizados para discriminar o segmentar a los usuarios. El estudio alerta de la falta de transparencia respecto a qué datos se generan, cómo se utilizan y con qué fines.

El consentimiento informado, en la práctica, resulta insuficiente: aceptar términos y condiciones no equivale a comprender el alcance real de la información recopilada ni las formas en que puede condicionar las decisiones cotidianas.

PUBLICIDADhttps://afdf23356166b1255cc14f74e0bd3a9f.safeframe.googlesyndication.com/safeframe/1-0-45/html/container.html

Estos riesgos no suelen manifestarse de manera inmediata. En lugar de una decisión única y concreta, los sistemas introducen pequeños ajustes continuos que, acumulados en el tiempo, pueden modificar el comportamiento de los usuarios. Este fenómeno dificulta la detección y el control de los efectos sobre la autonomía y la privacidad.(Imagen Ilustrativa Infobae)La clasificación automática de usuarios según su comportamiento introduce riesgos de segmentación, discriminación y falta de transparencia en el uso de datos. (Imagen Ilustrativa Infobae)

La disparidad entre el avance de la tecnología y la regulación

El desfase entre el avance de la Ia y la lentitud del Derecho en adaptarse es una de las principales conclusiones del estudio. La legislación vigente fue concebida para contextos en los que la recogida de datos era puntual y explícita, o para decisiones automatizadas claramente identificables.

PUBLICIDAD

Sin embargo, los sistemas actuales operan de manera continua, extrayendo conclusiones sobre el comportamiento sin encajar en las categorías jurídicas existentes.

El Reglamento General de Protección de Datos, aprobado en 2016, se centraba en la identificación de las personas mediante biometría, pero no anticipó el uso de estas tecnologías para interpretar emociones o modular la conducta. Por su parte, el Reglamento Europeo de Inteligencia Artificial, aún reciente, no ha otorgado suficiente relevancia a estas aplicaciones, a pesar del impacto que tienen en la vida diaria.

PUBLICIDAD

La investigación subraya que el problema no se soluciona exclusivamente con informar al usuario. Es necesario evaluar los riesgos de estos sistemas antes de su implantación, identificar el tipo de información que generan y establecer límites claros cuando puedan afectar derechos fundamentales.

El estudio propone pautas prácticas para que empresas y autoridades actúen de manera preventiva, asegurando la transparencia y el respeto a la autonomía personal.

Fuente: Infobae.com

Sea el primero en comentar en "La IA ya está interpretando tus emociones y advierten que debe ser regulada por la ley"

Deje un comentario

Su email no será publicado


*