
-
Las nuevas regulaciones de la Inteligencia Artificial establecen estándares éticos que transforman el sector del marketing y la comunicación
El uso e implantación exacerbados de la Inteligencia Artificial, han generado una preocupación subyacente en la sociedad respecto a los estándares éticos. Por ello, los gobiernos, las grandes plataformas y los diferentes organismos internacionales han tenido que llevar a cabo un nuevo planteamiento adaptado a las exigencias del panorama actual.
La nueva normativa ha sido especialmente impulsada por la Unión Europea y el AI Act, tratando de establecer los criterios por los deben regirse la creación, difusión y medición de contenidos de las marcas.
La transparencia algorítmica
Las posibilidades de creación o modificación de los contenidos, gracias a la Inteligencia Artificial, son infinitas. Por ello, un eje fundamental de la nueva normativa es la transparencia; aquellos contenidos en los que la Inteligencia Artificial ha sido utilizada para su parcial o completo desarrollo, deben informar explícitamente del uso de esta herramienta.
Es por tanto que las grandes multinacionales como Meta ya han comenzado a establecer etiquetas visibles a todos aquellos contenidos generados por la Inteligencia Artificial. Asimismo, TikTok, ha desarrollado un sistema de análisis de imágenes y videos para detectar publicaciones irreales y así poder informar sobre ello antes de su publicación.
Este tipo de estrategias se llevan a cabo para fomentar la transparencia y confianza entre usuario y marca, además de para prevenir la desinformación y la visualización de contenidos falsos.
Seguridad en la gestión de datos
La extrema personalización en contenidos publicitarios que se ha llevado a cabo durante los últimos años, ha obligado a reflexionar sobre los estándares éticos que se estaban siguiendo. Así, la conclusión se ha centrado en la necesidad de utilizar los datos desde un punto de vista más respetuoso y menos intrusivo. Marcas como Netflix o Spotify que basan sus recomendaciones en los algoritmos han tenido que reforzar sus políticas de privacidad y uso de datos, estableciendo un mayor control sobre la gestión de la información.
El control humano de la Inteligencia Artificial
El miedo a que la Inteligencia Artificial tome decisiones sin una debida supervisión se ha hecho visible. A partir de ahora las empresas deben demostrar que las decisiones significativas, aquellas que tengan un gran peso o que influyan en ambientes o parámetros extendidos, necesitan de una imprescindible revisión y chequeo humano. El proceso de toma de decisiones debe estar vigilado por profesionales del sector, aunque la Inteligencia Artificial tenga un gran peso, el punto y final debe estar impuesto por humanos.
Esta nueva normativa calma las heridas de muchos de los usuarios, pues se basan, en su gran mayoría, en la protección de estos. Asimismo, suponen una gran aportación a las empresas o marcas que ya no solo pueden prevenir “errores” de la Inteligencia Artificial, sino que, reglas como la afirmación explícita del uso de la Inteligencia Artificial en los contenidos, pueden prevenir una gran crisis de reputación, la difusión de bulos o la desinformación.

