Hoy, hablemos del avance de Bard, la respuesta de Google a ChatGPT, y de cómo resuelve uno de los problemas más apremiantes de los chatbots en la actualidad: la tendencia de los chatbots a inventar cosas.
Desde que se introdujeron los chatbots el año pasado, sus creadores nos advirtieron que no confiáramos en ellos. El texto generado por herramientas como ChatGPT no se basa en una base de datos de hechos establecidos. En cambio, el chatbot es predictivo: hace conjeturas probabilísticas sobre qué palabras parecen ser correctas basándose en un gran corpus de texto entrenado en su modelo de lenguaje grande subyacente.
Como resultado, los chatbots a menudo "comenten errores con confianza", en el lenguaje de la industria. Esto puede engañar incluso a personas con un alto nivel educativo, como vimos este año con un abogado que presentó citaciones generadas por ChatGPT, sin darse cuenta de que cada caso surgió de la nada.
Esta situación explica por qué considero que los chatbots son en su mayoría inútiles como asistentes de investigación. Te dirán todo lo que quieras en cuestión de segundos, pero en la mayoría de los casos no citarán su trabajo. Por lo tanto, es necesario dedicar mucho tiempo a investigar si sus respuestas son verdaderas, lo que a menudo frustra el propósito de utilizar un chatbot en primer lugar.
Cuando Bard de Google se lanzó a principios de este año, incluía un botón "GoogleIt" que enviaba su consulta al motor de búsqueda de la compañía. Si bien esto le permite obtener una segunda opinión sobre el resultado del chatbot más rápidamente, aún le corresponde a usted determinar si es verdadero o falso.
Pero a partir de hoy, Bard hará más por ti. Después de que el chatbot responda una de tus preguntas, haz clic en el botón de Google para "revisar" tu respuesta. Así es como lo explicó la compañía en una publicación de blog:
Al hacer clic en el ícono "G", "Bard" leerá tus respuestas y evaluará si hay contenido en la web que corrobore tus respuestas. Si el reclamo se puede evaluar, puede hacer clic en la frase resaltada para obtener más información sobre la información de respaldo o contradictoria encontrada en la búsqueda.
Una inspección minuciosa de la consulta convierte muchas oraciones en las respuestas en verde o marrón. Respuestas resaltadas en verde enlace a la página web de referencia; Pase el mouse sobre una de estas páginas y Bard le mostrará de dónde proviene la información. Las respuestas resaltadas en marrón indican que Bard no conoce la fuente del mensaje y el resaltado puede ser un error.
Por ejemplo, cuando revisé dos veces la respuesta de Bard a mi pregunta sobre la historia de la banda Radiohead, encontré muchas oraciones resaltadas en verde que coincidían con mi propio conocimiento. Pero también hace que la frase se vuelva marrón: "Han ganado numerosos premios, incluidos seis premios Grammy y nueve premios Brit". Pase el cursor sobre esta frase y los resultados de búsqueda de Google revelarán información contradictoria; De hecho, Radiohead nunca ha ganado un solo Brit Award, y mucho menos nueve.
"Voy a contarles sobre una tragedia que ocurrió en mi vida", me dijo Jack Krawczyk, director senior de producto de Google, en una entrevista la semana pasada.
Krawczyk estaba cocinando pez espada en casa y el olor del proceso de cocción parecía impregnar toda la casa. Usó a Bard para buscar formas de desodorizar y luego examinó los resultados para separar la realidad de la ficción. Resulta que una limpieza profunda de la cocina no soluciona el problema, como dijo originalmente el chatbot. Sin embargo, puede ser útil tener tazones de bicarbonato de sodio en la casa.
Krawczyk me dijo que debido a que la gente usa Bard de tantas maneras diferentes, a menudo no es necesario realizar una doble verificación. (Normalmente no le pedirías que vuelva a verificar un poema que escribiste, o un correo electrónico que redactaste, etc.)
Si bien la doble verificación representa una clara mejora, a menudo aún requiere que usted extraiga todas las citas y se asegure de que Bard esté interpretando los resultados de la búsqueda correctamente. Al menos en lo que respecta a la investigación, los humanos todavía están de la mano de la IA, al igual que la IA está de la nuestra.
Sin embargo, este es un avance bienvenido.
"Es posible que hayamos creado el primer modelo de lenguaje que admite que cometió un error", dijo Krawczyk. "Dada la importancia de mejorar estos modelos, garantizar que los modelos de IA admitan errores con precisión debería ser una máxima prioridad para la industria".
El martes, Bard recibió otra gran actualización: ahora puede conectarse a Gmail, Docs, Drive y algunos otros productos de Google, incluidos YouTube y Maps. La llamada extensión le permite buscar, resumir y hacer preguntas en tiempo real sobre documentos almacenados en su cuenta de Google.
Actualmente, está limitado a cuentas personales, lo que limita en gran medida su utilidad, pero como forma alternativa de navegar por la web, a veces es divertido; por ejemplo, cuando le pedí que me mostrara algunos videos excelentes sobre cómo comenzar con el diseño de interiores, hizo un gran trabajo. (Es bueno que estos videos se puedan reproducir en línea en la ventana de respuestas de Bard).