Los chatbots de IA están llegando a los motores de búsqueda. puedes confiar en ellos
Apenas unos meses después de que el chatbot ChatGPT asombrara al mundo con su asombrosa habilidad para escribir artículos y responder preguntas como un ser humano, la inteligencia artificial (IA) está comenzando a aparecer en las búsquedas en Internet.
Los tres motores de búsqueda más grandes del mundo, Google, Bing y Baidu, dijeron la semana pasada que integrarían ChatGPT o una tecnología similar en sus productos de búsqueda, lo que permitiría a las personas obtener respuestas o participar en conversaciones directamente, en lugar de solo recibir una lista de enlaces después de ingresar un palabra o pregunta. ¿Cómo cambiará esto la forma en que las personas se relacionan con los motores de búsqueda? ¿Existen riesgos en esta forma de interacción humano-computadora?
Bing de Microsoft utiliza la misma tecnología que ChatGPT, desarrollada por OpenAI en San Francisco, California. Pero las tres empresas utilizan modelos de lenguaje extenso (LLM). Los LL.M. crean oraciones convincentes respondiendo a patrones estadísticos en el texto que encuentran en grandes bases de datos. Anunciado el 6 de febrero, Bard, el motor de búsqueda impulsado por inteligencia artificial de Google, está siendo utilizado actualmente por un pequeño grupo de probadores. La versión de Microsoft ahora está ampliamente disponible, aunque se requiere una lista de espera para acceder sin restricciones. ERNIE Bot de Baidu se lanzará en marzo.
Antes de estos anuncios, varias empresas más pequeñas habían lanzado motores de búsqueda impulsados por IA. «Los motores de búsqueda están evolucionando hacia este nuevo estado en el que puedes empezar a hablarles y hablarles como si estuvieras hablando con un amigo», dijo Aravind Srinivas, científico informático de San Francisco que cofundó Perplexity en agosto pasado, con sede en en LLM Un motor de búsqueda que proporciona respuestas en inglés conversacional.
cambiar la confianza
La naturaleza fuertemente personal de la conversación puede ayudar a influir en cómo las personas perciben los resultados de búsqueda en comparación con las búsquedas tradicionales en Internet. Aleksandra Urman, científica social computacional de la Universidad de Zurich en Suiza, dice que las personas pueden estar conectadas para confiar en las respuestas de los chatbots que participan en conversaciones más que en las respuestas de los motores de búsqueda independientes.
Un estudio1 de 2022 realizado por un equipo de la Universidad de Florida en Gainesville descubrió que cuanto más humana pensaban que era la conversación, más confiaban en los participantes que interactuaban con los chatbots utilizados por empresas como Amazon y Best Buy.
Esto puede ser beneficioso, ya que hace que las búsquedas sean más rápidas y fluidas. Pero dado que los chatbots de IA pueden cometer errores, la mayor sensación de confianza podría ser problemática. Bud de Google respondió una pregunta sobre el Telescopio Espacial James Webb durante su propia demostración técnica, y con confianza respondió mal. Y ChatGPT tiende a crear respuestas ficticias a preguntas para las que no sabe las respuestas, lo que los que están en el campo llaman alucinaciones.
Un portavoz de Google dijo que el error de Bard «subraya la importancia de un proceso de prueba riguroso, que estamos lanzando esta semana con nuestro programa de prueba confiable». Pero algunos han especulado que, si se descubren, estos errores, en lugar de aumentar la confianza, podrían conducir a una pérdida de confianza del usuario en las búsquedas basadas en chat. «La percepción temprana puede tener un impacto realmente grande», dice Sridhar Ramaswamy, científico informático de Mountain View, California, y director ejecutivo de Neeva, un motor de búsqueda impulsado por LLM que se lanzó en enero. El error borró 100.000 millones de dólares del valor de mercado de Google, ya que los inversores se preocuparon por el futuro y vendieron las acciones.
falta de transparencia
El problema de la inexactitud se ve agravado por una relativa falta de transparencia. Por lo general, los motores de búsqueda muestran a los usuarios sus fuentes (listas de enlaces) y les permiten decidir en qué confían. Por el contrario, pocas personas saben en qué datos se entrena el LLM: ¿es la Enciclopedia Británica o los bloggers de chismes?
«Es completamente opaco [AI-powered search] funcionará, y si los modelos de lenguaje funcionan mal, alucinan o difunden información errónea, esto podría tener ramificaciones importantes», dijo Urman.
Si los robots de búsqueda cometen suficientes errores, en lugar de aumentar la confianza en sus habilidades conversacionales, dice Urman, podrían alterar la percepción de los usuarios de los motores de búsqueda como árbitros imparciales de la verdad.
Condujo un estudio aún no publicado que muestra que los niveles de confianza actuales son altos. Ella examina cómo las personas perciben las funciones existentes que usa Google para mejorar la experiencia de búsqueda, conocidas como «fragmentos destacados», en los que los extractos de las páginas que se consideran particularmente relevantes para una búsqueda aparecen sobre los enlaces y los «paneles de conocimiento»: un resumen de Google Generado automáticamente en respuesta a búsquedas sobre una persona u organización. Casi el 80 por ciento de las personas encuestadas por Urman encontraron que estas características eran precisas y alrededor del 70 por ciento dijeron que eran objetivas.
Las búsquedas impulsadas por chatbots desdibujan la distinción entre máquinas y humanos, dijo Giada Pistilli, jefe de ética de Hugging Face, una plataforma de ciencia de datos en París que promueve el uso responsable de la inteligencia artificial. Le preocupa la rapidez con la que las empresas están adoptando los avances de la IA: «Siempre nos lanzan estas nuevas tecnologías sin ningún control o marco educativo para ver cómo usarlas».
Este artículo se reimprime con permiso y apareció por primera vez el 13 de febrero de 2023.