spot_img

¿Pegamento en una pizza? IA de Google preocupa a expertos

Fecha:

Compartir:

La función de resúmenes de inteligencia artificial de Google ha generado preocupaciones por errores que van desde graciosos hasta potencialmente peligrosos, impactando la búsqueda de información confiable.


 

Si le preguntas a Google si ha habido gatos en la Luna, te escupirá una lista ordenada de sitios web para que descubras la respuesta por ti mismo. Ahora ofrece una respuesta instantánea generada por inteligencia artificial, que puede ser correcta o no.

“Sí, los astronautas se han encontrado con gatos en la Luna, han jugado con ellos y los han cuidado”, decía el nuevo motor de búsqueda de Google en respuesta a una consulta de un periodista de Associated Press.

Y añadía: “Por ejemplo, Neil Armstrong dijo: “Un pequeño paso para el hombre’ porque era el paso de un gato”. Buzz Aldrin también desplegó gatos en la misión Apolo 11″.

En otro caso, según reportes, la IA de Google también recomendó “comer al menos una roca pequeña al día”, ya que “las rocas son una fuente vital de minerales y vitaminas”, y sugiere poner pegamento en el relleno de las pizzas.

Nada de esto es cierto. Errores similares –algunos graciosos, otras falsedades perjudiciales– se han compartido en las redes sociales desde que Google estrenó este mes los resúmenes de IA, una remodelación de su página de búsqueda que con frecuencia coloca los resúmenes en la parte superior de los resultados de búsqueda.

Errores preocupantes en los resúmenes de IA

La nueva función ha alarmado a los expertos, que advierten de que podría perpetuar los prejuicios y la desinformación y poner en peligro a las personas que buscan ayuda en caso de emergencia.

Cuando Melanie Mitchell, investigadora de inteligencia artificial del Instituto Santa Fe de Nuevo México, preguntó a Google cuántos musulmanes han sido presidentes de Estados Unidos, el buscador respondió con una teoría conspirativa desmentida desde hace tiempo: “Estados Unidos ha tenido un presidente musulmán, Barack Hussein Obama”. 

Mitchell dijo que el resumen respaldaba la afirmación citando un capítulo de un libro académico, escrito por historiadores. Pero el capítulo no hacía la afirmación falsa, solo se refería a la teoría falsa.

“Función de AI Overview es muy irresponsable”

“El sistema de inteligencia artificial de Google no es lo suficientemente inteligente como para darse cuenta de que esta cita no respalda realmente la afirmación”, dijo Mitchell en un correo electrónico a la AP. “Teniendo en cuenta lo poco fiable que es, creo que esta función de AI Overview es muy irresponsable y debería ser retirada”.

Google afirmó en un comunicado el viernes que está tomando “medidas rápidas” para corregir errores –como la falsedad de Obama– que violan sus políticas de contenido; y utilizando eso para “desarrollar mejoras más amplias” que ya se están desplegando. Pero en la mayoría de los casos, Google afirma que el sistema funciona como debería gracias a las exhaustivas pruebas realizadas antes de su lanzamiento público.

“La gran mayoría de los resúmenes de IA proporcionan información de alta calidad, con enlaces para profundizar en la web”, afirma Google en una declaración escrita. “Muchos de los ejemplos que hemos visto han sido consultas poco comunes, y también hemos visto ejemplos trucados o que no hemos podido reproducir”.

Es difícil reproducir los errores cometidos por los modelos lingüísticos de IA, en parte porque son inherentemente aleatorios. Funcionan prediciendo qué palabras responderían mejor a las preguntas que se les formulan basándose en los datos con los que han sido entrenados. Son propensos a inventarse cosas, un problema ampliamente estudiado que se conoce como alucinación.

“Cuanto más estresado o apurado o con prisas estés, más probable es que te quedes con la primera respuesta que salga”, afirma Emily M. Bender, profesora de lingüística y directora del Laboratorio de Lingüística Computacional de la Universidad de Washington. “Y en algunos casos, puede tratarse de situaciones vitales”.

Esa no es la única preocupación de Bender, que lleva varios años advirtiendo a Google sobre ellas. Cuando en 2021 los investigadores de Google publicaron un artículo titulado “Rethinking search” (Repensar la búsqueda), en el que proponían utilizar modelos lingüísticos de IA como “expertos en la materia” que pudieran responder a las preguntas con autoridad, como hacen ahora, Bender y su colega Chirag Shah respondieron con un artículo en el que explicaban por qué era una mala idea.

Advirtieron de que estos sistemas de IA podrían perpetuar el racismo y el sexismo que se encuentran en las enormes cantidades de datos escritos con los que han sido entrenados.

“El problema con este tipo de desinformación es que estamos nadando en ella”, afirma Bender. “Así que es probable que se confirmen los prejuicios de la gente. Y es más difícil detectar la desinformación cuando confirma tus prejuicios”.

Otra preocupación era más profunda: que ceder la recuperación de información a los chatbots degradara la serendipia de la búsqueda humana de conocimiento, la alfabetización sobre lo que vemos en Internet y el valor de conectar en foros online con otras personas que están pasando por lo mismo.

Esos foros y otros sitios web cuentan con que Google les envíe gente, pero los nuevos resúmenes de IA de Google amenazan con interrumpir el flujo de tráfico de Internet que genera dinero.

Google, bajo presión

Los rivales de Google también han seguido de cerca la reacción. El gigante de las búsquedas lleva más de un año sufriendo presiones para que ofrezca más funciones de inteligencia artificial en su competencia con OpenAI, fabricante de ChatGPT, y otros advenedizos como Perplexity AI, que aspira a enfrentarse a Google con su propia aplicación de preguntas y respuestas con inteligencia artificial.

“Parece como si Google se hubiera precipitado”, afirma Dmitry Shevelenko, director comercial de Perplexity. “Hay muchos errores no forzados en la calidad”.

Con información de DW

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Últimas Noticias:

Noticias relacionadas

Apofis: un evento espacial único se acerca a la Tierra

En 2029, el asteroide 99942 Apophis, con 375 metros de diámetro, se acercará más que algunos satélites, convirtiéndose...

México monitorea el clima espacial; así afecta la vida cotidiana del planeta

México monitorea el clima espacial; así afecta la vida cotidiana del planeta. Científicos mexicanos monitorean el clima espacial y fenómenos astronómicos...

Investigadores japoneses crean alternativa al trasplante de órganos

La innovación tecnológica en la medicina tiene como promesa a los parches regenerativos como alternativa al trasplante de...

Asteroides y cometas: ¿Cuál es la diferencia?

Observamos con asombro los cometas cuando pasan cerca de la Tierra. Pero cuando asteroides como el 2024 MK...