Una de las fechas claves que está marcada en la historia reciente fue la presentación de Chat Gpt el 30 de noviembre de 2022, si bien ya existían modelos que aplicaban la llamada “Inteligencia Artificial” en distintos campos, el impacto generado por la presentación a un público global de un modelo de lenguaje (LLM, por sus siglas en inglés) que entendía aparentemente el contexto de preguntas y ofrecía respuestas coherentes, que era capaz de generar narrativa propia, componer poesía o resolver problemas ha sido enorme.

Pero esta presentación no solo demostró avances significativos en el campo de la inteligencia artificial, sino que también desató un interés masivo y debates sobre el futuro de la interacción entre humanos y máquinas, así como sobre las implicaciones éticas y sociales de esta tecnología emergente.

Ya a principios de milenio nos hacían ver la irrupción de internet como una herramienta de futuro que colocaba al consumidor como el “rey del mercado”, marcado por un acceso prácticamente ilimitado de productos y servicios, la eliminación de intermediarios, mayor información entre productos y precios que disparaba la capacidad de comparar y acceder a bienes y servicios.

El resultado ha sido bien diferente, a través de la economía de la información y el tratamiento de big data, el consumidor ha pasado a ser el producto de un oligopolio de recopilación masiva de de datos personales con el único fin de influir en su comportamiento y por tanto en sus compras.

Si bien, ahora vivimos en una burbuja respecto a todos los beneficios que la inteligencia artificial va a aportar a nuestras vidas, lo cual es cierto, no podemos obviar que la llegada de la IA, viene a elevar exponencialmente los riesgos que ya se plantearon en la época anterior, y a los cuales desde la sociedad podemos entender que escasamente han sido contrarrestados desde el ámbito de la protección a las personas consumidoras.

La IA ya se está utilizando ampliamente en el marketing actual, transformando significativamente la forma en que las empresas interactúan con los consumidores, a través de las siguientes herramientas:

Publicidad programática, utiliza algoritmos de IA para comprar, colocar y optimizar anuncios en tiempo real, permitiendo la segmentación precisa del consumidor, Identificando grupos de clientes con características similares para campañas más efectivas, incluso adaptando el precio al contexto de demanda y la competencia.

Personalización de contenidos, sistemas de recomendación que sugieren productos o contenidos basados en el comportamiento del usuario, pudiendo personalizar sitios web y aplicaciones en tiempo real.

Chatbots y asistentes virtuales, que proporcionan atención al cliente 24/7 manejando no sólo consultas simples sino que hay determinados chatbots que llegan a encauzar la conversación hacia la venta del producto.

Análisis predictivo, predice tendencias de mercado y comportamiento del consumidor, ayudando en la toma de decisiones estratégicas.

Análisis de sentimientos, monitorea y analiza las opiniones de los consumidores en redes sociales y otros canales optimizando las distintas estrategias de marketing.

Todo lo anterior, en el ámbito del consumo puede ser considerado peligroso por diversas razones:

Manipulación y Persuasión: Los algoritmos de IA pueden analizar grandes cantidades de datos personales y comportamientos de los usuarios para crear perfiles detallados y personalizados. Esto permite a los marketeros crear estrategias altamente persuasivas y personalizadas, que podrían influir en las decisiones de compra de manera no ética o incluso manipuladora.

Privacidad y Seguridad: La recopilación masiva de datos para alimentar algoritmos de IA plantea serias preocupaciones sobre la privacidad de los usuarios. Existe el riesgo de que los datos personales sean utilizados de manera indebida o incluso comprometidos en violaciones de seguridad, lo que puede tener repercusiones negativas para los individuos y las empresas.

Creación de Contenido Engañoso: Algunos sistemas de IA pueden generar contenido como textos, imágenes o videos que son difíciles de distinguir de los creados por humanos. Esto podría ser utilizado para difundir información falsa o engañosa, lo cual es especialmente problemático en campañas de marketing donde la credibilidad y la transparencia son fundamentales.

Desigualdad y Discriminación: Los algoritmos de IA pueden perpetuar y amplificar sesgos existentes en los datos utilizados para entrenarlos. Esto puede resultar en decisiones discriminatorias en la segmentación de audiencias o en la personalización de mensajes, afectando negativamente a grupos específicos de la población.

La norma que entendemos que puede ser el referente de regulación de la IA en un ámbito supranacional, parte de la Unión Europea, que toma también como punto de partida los “beneficios” de la IA, aunque establece un mapa de riesgos que suponen los distintos sistemas de inteligencia artificial, de forma que se den respuesta a situaciones no deseadas.

Es el Reglamento de Inteligencia Artificial (RIA) de la Unión Europea.

La norma plantea riesgos relacionados con la seguridad de los usuarios y los derechos fundamentales, incluso sistémicos, previendo determinadas obligaciones para los proveedores de modelos de inteligencia artificial de uso general, incluidos los grandes modelos generativos de inteligencia artificial.

Al respecto regula cuatro niveles de riesgo de los sistemas de inteligencia artificial, así como una identificación de los riesgos específicos de los modelos de uso general que se sistematizan en:

Riesgo mínimo: La mayoría de los sistemas de IA pueden desarrollarse y utilizarse según la legislación vigente sin obligaciones adicionales. Los proveedores pueden optar por seguir requisitos voluntarios de IA digna de confianza.

Alto riesgo: Incluye sistemas con impacto potencial negativo en la seguridad o derechos fundamentales, como componentes de seguridad de productos sujetos a evaluación de conformidad por terceros. La lista de estos sistemas puede revisarse según la evolución de la IA.

Riesgo inadmisible: Usos de IA prohibidos por vulnerar derechos fundamentales, como puntuación social, explotación de vulnerabilidades, identificación biométrica remota en público, categorización biométrica basada en características sensibles, actuación policial predictiva, reconocimiento de emociones en entornos laborales y educativos (excepto por razones médicas o de seguridad), y extracción no selectiva de imágenes faciales de internet o CCTV.

Riesgo específico para la transparencia: Obligaciones de transparencia para sistemas de IA con riesgo claro de manipulación, como robots conversacionales. Los usuarios deben saber que interactúan con una máquina. La Ley de IA también aborda riesgos sistémicos de modelos de IA de uso general, que pueden causar accidentes graves, ser usados para ciberataques, o propagar sesgos nocivos en múltiples aplicaciones.

La clasificación del riesgo dependerá de la función desempeñada por el sistema de inteligencia artificial y de la finalidad y las modalidades específicas para las que se utilice dicho sistema, se adjunta a la Ley de IA una lista de casos de uso que la Comisión considera de alto riesgo, algunos de ellos inciden de forma expresa en el ámbito del consumo como pueden ser el acceso a servicios y prestaciones públicos y privados esenciales , la evaluación de la solvencia de las personas físicas, los sistemas de identificación biométrica, categorización y reconocimiento de emociones.

La norma garantiza el derecho de presentar una denuncia ante una autoridad nacional competente. Estas autoridades pueden iniciar actividades de vigilancia del mercado conforme a los procedimientos establecidos en los reglamentos pertinentes.

Asimismo, la Directiva propuesta sobre responsabilidad en inteligencia artificial busca facilitar a las personas que reclaman indemnización por daños causados por sistemas de IA de alto riesgo, proporcionando medios eficaces para identificar a los posibles responsables y obtener pruebas relevantes para sus reclamaciones.

El Reglamento de Inteligencia Artificial (RIA) de la Unión Europea se publicará en el Diario Oficial de la Unión Europea el 12 de julio de 2024 y entrará en vigor el 1 de agosto de 2024.

A partir de esa fecha, será plenamente aplicable 24 meses después, excepto para ciertas disposiciones específicas:

Prohibiciones de prácticas prohibidas: 6 meses después. Códigos de práctica: 9 meses después. Normas de IA de uso general, incluida la gobernanza: 12 meses después. Obligaciones para sistemas de alto riesgo: 36 meses después.

El papel del movimiento de consumidores debe ser claro, pidiendo una participación directa y efectiva en la adaptación de la norma en los distintos estados miembros, buscando un desarrollo ético de la tecnología y denunciando aquellas conductas que generen riesgos hacia las personas consumidoras.

Se debe adecuar la normativa de la IA a la casuística de la protección de los consumidores desde las distintas perspectivas transversales.

Jordi Castilla
Abogado. Secretario General de FACUA Andalucía y FACUA Sevilla

Recurso de imagen: www.pixabay.com