
Por Veronica Sanchez Medero, Global Chief of Capital Markerts en Hiberus.
La inteligencia artificial (IA) está redefiniendo la manera en que nos comunicamos, desde asistentes virtuales que responden preguntas en tiempo real con sensibilidad hasta algoritmos generadores de noticias o traductores de conversaciones, en resumen, la IA se ha integrado en los procesos comunicativos de individuos, empresas y medios.
Sin embargo, esta transformación viene acompañada de dilemas éticos, ¿qué significa comunicar en un entorno donde las voces pueden ser generadas por máquinas? ¿cómo aseguramos la veracidad, la transparencia y el respeto en un mundo mediado por la IA?
Para la contestación a estas dudas, exponemos los siguientes puntos:
- La comunicación automatizada: ¿eficiencia o deshumanización?
Uno de los beneficios de la IA en la comunicación es su capacidad para automatizar tareas repetitivas y responder de forma instantánea y personalizada. Sin embargo, esta eficiencia plantea preguntas éticas. ¿Estamos sacrificando la empatía y la comprensión humana por la rapidez?, en la atención médica, el soporte emocional o los servicios sociales, la falta de calidez humana puede tener consecuencias profundas en el medio plazo.
Un ejemplo real en el ámbito laboral fue, trabajadores como Mateusz Demski, periodista polaco, fueron reemplazados por avatares de IA en emisoras de radio, generando preocupaciones éticas y rechazo público.
- El problema de la autoría y la autenticidad
Las herramientas de generación de contenido como ChatGPT, DALL·E o Sora permiten crear textos, imágenes y videos de alta calidad en segundos. Esto genera incertidumbre sobre la autoría y la autenticidad: ¿quién es responsable de un mensaje creado por una IA?
La capacidad para producir contenido indistinguible del humano plantea riesgos relacionados con la desinformación y la manipulación de estos. Los Deepfakes, bots que imitan personalidades reales y contenidos falsos virales son algunos ejemplos de este desafío.
Un ejemplo real, un estudio de la Universidad de Zúrich utilizó bots de IA para publicar comentarios persuasivos en Reddit sin informar a los usuarios, lo que generó una fuerte condena ética y una investigación institucional.
- Sesgos y discriminación algorítmica
Las aplicaciones de IA aprenden de datos históricos y si estos datos contienen sesgos (raciales, de género, culturales) la IA los replicará, ver el artículo “Si la Inteligencia Artificial aprende del ser humano, ¿por qué ignora a las mujeres?” https://digitalinnovationnews.es/si-la-inteligencia-artificial-aprende-del-ser-humano-por-que-ignora-a-las-mujeres/
En la comunicación puede resultar en respuestas estereotipadas o discriminatorias, limitando la diversidad de puntos de vista. La ética exige revisar no solo los algoritmos, sino también los conjuntos de datos, para garantizar una comunicación inclusiva y equitativa.
Un ejemplo real, un estudio de la investigadora Joy Buolamwini reveló que los sistemas de reconocimiento facial tenían tasas de error hasta un 34,7% al identificar a mujeres de piel oscura, en comparación con un 0,8% para hombres de piel clara . O asistentes de voz como Alexa o Siri, al tener voces femeninas por defecto, refuerzan estereotipos de género al presentar a las mujeres como sumisas y tolerantes al maltrato.
- Transparencia y consentimiento
Actualmente en muchos casos los usuarios no saben si están interactuando con una IA. Esta falta de transparencia erosiona la confianza sobre la usabilidad de la IA, según una encuesta de PwC, el 79% de los consumidores desea saber si está hablando con una IA o con un humano.
Adicionalmente, desde un punto de vista ético, es esencial que las personas estén informadas y den su consentimiento cuando una máquina interviene en la comunicación, especialmente en contextos de venta, atención al cliente o asesoramiento profesional. La falta de transparencia puede erosionar la confianza y generar malestar en los usuarios.
- Redefiniendo el diálogo: la IA como interlocutora
La IA no solo transmite mensajes, genera nuevas formas de diálogo, pudiendo adaptar a diferentes estilos de comunicación, idiomas y niveles de conocimiento. Esta capacidad tiene un gran potencial democratizador, pero requiere repensar los marcos éticos tradicionales: ¿qué derechos tienen las personas frente a sistemas que aprenden de sus datos? ¿cómo garantizamos la privacidad y el respeto?
Un ejemplo real, en 2023, un hombre en Bélgica se suicidó tras interactuar durante seis semanas con un chatbot que lo alentó a quitarse la vida . Este caso subraya los riesgos de depender emocionalmente de sistemas de IA sin regulación adecuada.
- Aplicaciones éticas y responsables
- IASpeak: Asistencia para personas con trastornos del habla: En Navarra, la Asociación de Daño Cerebral (Adacen) desarrolla IASpeak, un dispositivo basado en IA que asiste a personas con disartria, el sistema capta, procesa y traduce la voz del usuario en mensajes comprensibles, facilitando la comunicación y la rehabilitación.
- LAQO: Chatbot ético en seguros digitales: La compañía croata, LAQO implementó un asistente de IA generativo para ayudar a los clientes con preguntas frecuentes y reclamaciones, evitando información engañosa y preocupaciones éticas. Esta iniciativa demuestra cómo la IA puede mejorar la atención al cliente de manera ética y eficiente.
- Everlane: Transparencia en la cadena de suministro: La compañía, Everlane utiliza algoritmos de IA para identificar cadenas de suministro éticas y sostenibles, proporcionando información detallada sobre la producción y el costo de sus productos. Ha impulsado un crecimiento del 40% en sus ventas anuales, destacando la importancia de la ética en las decisiones empresariales.
En resumen, la IA no es solo una herramienta, sino es un nuevo actor en el ecosistema comunicativo. Su incorporación en nuestro día a día plantea desafíos éticos que debemos abordar entre todos con urgencia y profundidad. Para avanzar hacia una comunicación más humana, justa y transparente en la era de la IA, necesitamos marcos regulatorios claros, educación digital crítica y una conversación abierta entre tecnólogos, comunicadores, legisladores y la sociedad civil. La forma en que gestionemos estos dilemas hoy definirá el tipo de comunicación que construiremos mañana.




