ciudad mobileciudad
Iniciar sesión
Ver Ciudad en vivo

Secciones

Últimas Noticias
Espectáculos
Exclusivo
Actualidad
Cocina
Videos
Magazine
Horóscopo
Cine y Series
Qué Look
Internacional
Virales
Tecno
Música
Teatro
Los Más Clickeados

Seguinos en las redes

Ciudad MagazineTecno

Las “medidas rápidas” que Google está tomando resultados inexactos de su función AI Overview

La herramienta AI Overview, lanzada recientemente en Estados Unidos, proporciona respuestas rápidas con resúmenes creados por IA.

20 de junio 2024, 03:22hs

Google está tomando medidas para eliminar resultados inexactos de su función de Inteligencia Artificial AI Overview, impulsada por Gemini, que ha recomendado acciones peligrosas a los usuarios.

Gemini, presentado el año pasado, es una IA flexible disponible en tres tamaños diferentes (Ultra, Pro y Nano).

La herramienta AI Overview, lanzada recientemente en Estados Unidos, proporciona respuestas rápidas con resúmenes creados por IA.

Este experimento de Search Labs reemplaza a la Experiencia generativa de búsqueda, ofreciendo descripciones generales y más enlaces para proporcionar múltiples perspectivas.

RESPUESTAS INCORRECTAS EN REDES SOCIALES

Usuarios que probaron AI Overview han compartido respuestas incorrectas en redes sociales, como la recomendación de comer piedras o usar pegamento en la pizza.

Kris Kashtanova compartió en su perfil de X la recomendación de “comer al menos una piedra pequeña al día, según geólogos de la Universidad de Berkeley”.

Google está eliminando resultados incorrectos de su función AI Overview, impulsada por Gemini, que ha dado recomendaciones peligrosas.

@heavenred señaló que AI Overview le recomendó usar pegamento “no tóxico” en una pizza para fundir el queso con la masa.

Google asegura que su herramienta genera “información de alta calidad”, atribuyendo las respuestas inexactas a “consultas poco comunes” y posibles manipulaciones.

GOOGLE APUNTA A TERMINAR CON LAS RESPUESTAS ERRÓNEAS

Google está tomando medidas rápidas para acabar con las respuestas sesgadas o erróneas generadas por AI Overview, conocidas como alucinaciones.

La compañía buscará eliminar las descripciones generales de IA en ciertas consultas, según sus políticas de contenido.

Utilizará ejemplos de respuestas inexactas para desarrollar mejoras más amplias en sus sistemas y acabar con estas respuestas problemáticas.

Fuente: EP.

Temas de la nota

TecnoGoogleIAGemini

Más notas sobre Tecno

Quotex: Operar parece sencillo, pero en realidad no lo es

EXCLUSIVO

Sebastián Darcyl presentó LIT, la app que vincula marcas e influencers: “Somos como un Tinder”

Por Fernando Gatti

Cómo evitar que una marca suene a robot con un detector de IA

Participá con tu comentario
Los comentarios publicados en ciudad.com.ar podrán ser reproducidos parcial o totalmente en la pantalla de Ciudad Magazine, como así también las imágenes de los autores.

© 1996 - 2025, Artear

Seguinos en las redes

Últimas noticias

  • Se conocieron los escalofriantes detalles de cómo encontraron a Lowrdez Fernández en la casa de su ex
  • “Devuélveme la vida”: de qué trata la nueva telenovela de Ciudad Magazine
  • Carnaval de Gualeguaychú 2026: se confirmaron las fechas
  • Cande Tinelli rompió el silencio sobre las amenazas que recibió su hermana Juana

Secciones

  • Espectáculos
  • Actualidad
  • Internacional
  • Exclusivo
  • Horóscopo
  • Cine y Series
  • Videos
  • Música
  • Qué Look

Sitios amigos

  • Canal (á)
  • Cucinare
  • El Doce
  • eltrece
  • Cienradios
  • Clarín
  • Grupo Clarín
  • La 100
  • La Voz del Interior
  • Mitre
  • Olé
  • Quiero Música
  • TN
  • TyC Sports
  • Vía País

Seguinos en las redes

© 1996 - 2025, Artear

Mapa del sitio
Aviso Legal
Políticas de privacidad
Media Kit