El #findelperiodismo, según la inteligencia artificial
18 problemas comunes que hay que evitar al informar sobre IA.
Un truco muy usado en el SEO para medios digitales es llenar las notas con “palabras clave”. Básicamente, se trata de repetir la palabra tantas veces como puedas, y mejor si está en el título. En teoría, esto ayuda a mejorar el posicionamiento en los buscadores, ya que sigue las preferencias del algoritmo. Muchos medios lo hacen; solo hay que buscar palabras clave populares como “WhatsApp”, “precio del dólar” o, más recientemente, la frase “según la inteligencia artificial”1. La cantidad de notas creadas con este tema creció de manera exponencial y cualquier excusa es buena.
En un modelo basado en generar tráfico para vender banners, cualquier truco es bueno para generar clics, y aquí es donde los medios caen en errores comunes. Con la llegada de la inteligencia artificial generativa, es bastante usual encontrar notas donde se le atribuyen capacidades extraordinarias sin evidencia que lo sustente, textos alarmistas acerca de cómo la IA es un peligro fuera de control o de cómo supera a los humanos sin considerar el contexto de uso.
Estos sesgos son conocidos y se pueden evitar. Sayash Kapoor y Arvind Narayanan2 identificaron 18 claras situaciones en las cuales los medios informan de manera incorrecta acerca de la inteligencia artificial y cómo pueden ayudar a corregir el problema. Agrego notas en cursiva:
Atribuir inteligencia independiente a la inteligencia artificial. Describir sistemas de IA como si actuaran independientemente de la supervisión humana es incorrecto.
Un artículo que describe a un chatbot diciendo que puede “resolver cualquier problema de atención al cliente sin intervención humana” cuando aún necesita supervisión para manejar casos complejos.
Imaginería sugestiva. Utilizar imágenes de robots humanoides para ilustrar artículos sobre IA que no tratan sobre robots físicos.
Porque nada dice “inteligencia artificial” mejor que la imagen de un robot humanoide ilustrando una nota.
Comparación con la inteligencia humana. Implicar que los algoritmos de IA aprenden de manera similar a los humanos.
Esto es incorrecto ya que la IA aprende a través de datos preetiquetados y ajustes matemáticos, no mediante la experiencia y el desarrollo cognitivo como los humanos.
Comparación con habilidades humanas. Comparar cómo las herramientas de IA realizan tareas específicas en comparación con los humanos, ignorando que estas funcionan solo en situaciones especificas.
Es incorrecto decir que “una IA puede diagnosticar enfermedades mejor que un médico” sin mencionar que la IA solo puede hacerlo en un conjunto muy específico de condiciones.
Hipérbole. Describir sistemas de IA como revolucionarios sin evidencia concreta de su desempeño.
Describir una nueva IA como “la próxima revolución en tecnología que cambiará el mundo” sin proporcionar evidencia concreta de su efectividad o impacto.
Comparación no crítica con transformaciones históricas. Comparar herramientas de IA con grandes transformaciones históricas sin evidencia sustancial.
La Revolución Industrial transformó todos los aspectos de la vida económica y social, mientras que los impactos de la IA aún están en desarrollo y son limitados a ciertas áreas.
Reclamos no justificados sobre el progreso futuro. Especular sobre cómo las herramientas de IA afectarán una industria en el futuro sin evidencia.
Especular que “la IA reemplazará a todos los trabajadores en la industria del transporte en los próximos cinco años” sin datos que lo respalden.
Reclamos falsos sobre el progreso. Incluir afirmaciones falsas sobre lo que una herramienta de IA puede hacer.
Por ejemplo afirmar que “una IA puede traducir cualquier idioma con precisión perfecta” cuando los errores de traducción aún son comunes.
Reclamos incorrectos sobre lo que informa un estudio. Citar estudios académicos que no respaldan las afirmaciones hechas en el artículo.
Los estudios de IA suelen ser específicos y no generalizables a todas las capacidades humanas.
Términos profundos para acciones banales. Usar frases que impliquen que la herramienta de IA está realizando algo extraordinario cuando no es el caso.
Muchos procesos de inteligencia artificial son avanzados, pero describirlos con lenguaje grandilocuente puede ser engañoso.
Tratar a los portavoces de empresas y a los investigadores como partes neutrales. Cuando un artículo presenta principalmente o solo citas de estos actores, sin un contexto equilibrado.
Cuidado con los artículos que solo citan a ejecutivos de una empresa de inteligencia artificial sin incluir opiniones de expertos independientes. Es necesaria una visión equilibrada.
Repetir o reutilizar términos y declaraciones de relaciones públicas. Usar términos de relaciones publicas sin describir cómo funcionan realmente las herramientas de inteligencia artificial.
Usar frases como “revolucionario” o “transformará la industria para siempre” sin explicar cómo la tecnología realmente genera un impacto.
No discutir las limitaciones potenciales. Omitir discusiones sobre las limitaciones, sesgos o uso potencial de las herramientas de inteligencia artificial.
Hablar solo de los beneficios de una nueva IA sin mencionar posibles sesgos, fallos o riesgos de privacidad es un problema común.
Desestimar limitaciones. Incluso si se discuten, a menudo se minimizan o se colocan hacia el final del artículo.
Las limitaciones y riesgos de la IA deberían ser una parte central del análisis, no una nota al pie.
Limitaciones enmarcadas en un contexto de "escépticos". Posicionar a los expertos que explican las limitaciones como escépticos que no ven el verdadero potencial de la inteligencia artificial.
Los críticos a menudo tienen puntos válidos sobre los riesgos y limitaciones que deberían ser considerados.
Menospreciar el trabajo humano. No reconocer el trabajo humano necesario para construir y mantener sistemas de inteligencia artificial.
Desarrollar y mantener esos sistemas requiere un equipo de ingenieros, científicos de datos y especialistas en diversas áreas trabajando para asegurarse de que todo funcione correctamente. Es un proceso complejo que depende en gran medida del esfuerzo humano.
Números de desempeño reportados sin estimación de incertidumbre o advertencias. Presentar números como "90% de precisión" sin explicar bajo qué condiciones se calculan.
Presentar números de desempeño sin estimaciones de incertidumbre o advertencias puede ser engaños.
La falacia de la inescrutabilidad. Referirse a las herramientas de IA como cajas negras inescrutables, lo que puede permitir a los desarrolladores eludir la responsabilidad3.
Las decisiones de las inteligencias artificiales pueden ser explicadas y auditadas, y es crucial hacerlo para asegurar la responsabilidad y transparencia.
Para informar de manera efectiva y precisa sobre inteligencia artificial es fundamental evitar errores básicos que pueden llevar a malentendidos, se deben evitar especulaciones no justificadas y afirmaciones falsas sobre las capacidades de la tecnología. Es una gran oportunidad de acercar esta tecnología a las personas de manera responsable y realista.
Resultado de búsqueda de notas con la frase “según la inteligencia artificial“ en el titulo.
A checklist of eighteen pitfalls in AI journalism by Sayash Kapoor, Arvind Narayanan (PDF). September 30, 2022.
Kroll JA. 2018 The fallacy ofinscrutability. Phil. Trans. R. Soc. A 376:20180084