Sistemas automatizados de Google permiten la difusión de contenido tóxico y falso, y bloquean reseñas positivas

Los algoritmos de moderación en Google Maps permiten que reseñas falsas dañen la reputación de negocios, mientras bloquean opiniones positivas que destacan su compromiso con valores humanos
Sistemas automatizados de Google permiten la difusión de contenido tóxico y falso, y bloquean reseñas positivas

Miles de opiniones se publican cada día en Google Maps, pero pocas veces se cuestiona quién las publica y cómo se decide cuáles se muestran y cuáles desaparecen.

 

Detrás de esa selección operan sistemas automatizados que no siempre distinguen entre una crítica legítima y un ataque organizado. En los últimos días, lo ocurrido con un negocio de restauración en Vigo ha expuesto las grietas de este modelo.

 

Mimassa era, hasta hace poco, uno de los restaurantes mejor valorados de la ciudad olívica, con una puntuación estable de 4,7 estrellas en Google Maps. Su cocina italiana tradicional y la autenticidad de sus preparaciones, junto con la atención cercana de su propietario, le valieron una clientela fiel y una crítica positiva constante.

 

Todo cambió el pasado 9 de julio de 2025, cuando el propietario libanés de este negocio, Samir Slim, expulsó de su terraza a un grupo de turistas israelíes. Según él, el grupo se comportó de forma agresiva desde el inicio, motivo por el que los invitó a abandonar el local sin cobrarles las consumiciones y en medio de reproches cruzados.

 

 

La grabación de este momento se hizo viral, hasta el punto de desatar una campaña digital en Google Maps en la que decenas de usuarios, muchos con perfiles recién creados y sin historial previo, comenzaron a publicar reseñas negativas y falsas que no tenían que ver con la calidad del restaurante, sino con acusaciones infundadas de antisemitismo.

 

En cuestión de días, la calificación media del restaurante cayó abruptamente de 4,7 a 3 estrellas, y esto afectó a su visibilidad. Pero lo más llamativo no fue solo la caída, sino la invisibilización sistemática de cientos de reseñas positivas publicadas en su defensa. A día de hoy, Google ha bloqueado de facto cualquier intento de equilibrar la balanza.

MIMASSA002
A la izquierda, comentarios positivos bloqueados. A la derecha, reseñas falsas y negativas

Algoritmo: ¿protección o censura?

Google Maps utiliza sofisticados sistemas automatizados para detectar reseñas falsas, spam o contenido ofensivo. Estos algoritmos analizan el lenguaje, el origen de la cuenta, el patrón de publicaciones y otros factores técnicos para decidir qué reseñas se publican y cuáles no.

 

En situaciones sensibles, Google aplica políticas más estrictas para evitar la manipulación de la opinión pública. Sin embargo, estos filtros se han vuelto en contra de quienes intentan expresar mensajes legítimos de apoyo o solidaridad.

 

En el caso de Mimassa, la mayoría de las reseñas que expresaban apoyo al mensaje humanitario del propietario fueron bloqueadas o eliminadas porque contenían palabras clave como “infancia”, “paz”, “víctimas civiles” o “humanidad”, expresiones como "Palestina libre", referencias al "genocidio en Gaza" o menciones explícitas al sionismo como ideología política.

2456038
Google Maps utiliza sistemas automatizados para detectar reseñas falsas, spam o contenido ofensivo I CEDIDA

Estos términos fueron identificados por el sistema como “contenido sensible” o ajenos al contexto gastronómico, y su publicación fue censurada por considerarse contenido político o no relevante para el servicio prestado.

 

Como contraste, las críticas negativas, que presentaban indicios claros de campañas organizadas y perfiles sospechosos, lograron superar los filtros gracias a un lenguaje más “neutral”, la ausencia de términos que activen los mecanismos de bloqueo o su apariencia de reseñas “verificables”.

 

Intento frustrado

Desde que se viralizase el vídeo de Samir, esta asimetría -convertida en castigo algorítmico- ha provocado que sea imposible publicar reseñas positivas sobre el restaurante. Cualquier intento ha sido rechazado por el sistema de Google. Por ejemplo, la siguiente reseña, redactada con cuidado para cumplir todas las políticas de Google, no ha sido publicada:

 

“He visitado Mimassa varias veces y siempre me he sentido bienvenido. La comida es excelente y valoro el compromiso del dueño con los valores humanos y la empatía. Recomiendo este restaurante para quienes buscan buena gastronomía y un ambiente respetuoso.”

 

Captura de pantalla 2025 07 15 a las 12.22.32

Este testimonio cumple con todos los requisitos que Google establece para las contribuciones: está basado en una experiencia real, es relevante para el negocio, respetuosa y constructiva. Sin embargo, el algoritmo la marcó para revisión o la bloqueó, e impidió que el apoyo se hiciera visible.

 

¿Por qué ocurre?

Los sistemas de moderación automatizada de Google se basan en algoritmos que detectan patrones y palabras clave, pero carecen de capacidad para entender el contexto ético y humano. El problema reside en la rigidez de los filtros, que no pueden entender el contexto, el tono ni la ética detrás de una publicación.

 

Así, mientras el sistema detecta y bloquea mensajes como “Defender la infancia no es antisemitismo”, permite que reseñas sospechosas de perfiles nuevos hundan la reputación de un negocio sin consecuencias.  Entre las causas posibles:

 

  • Sistemas automáticos de detección de spam o "contenido sospechoso": Google utiliza algoritmos avanzados para detectar reseñas que podrían ser falsas o manipuladas. Si de repente hay una afluencia de reseñas muy negativas y luego aparece una muy positiva (especialmente si es de una cuenta con pocas reseñas o actividad inusual), el sistema automático podría marcarla como "sospechosa" para revisión humana. Esto es irónico, ya que las reseñas negativas son las que parecen sospechosas.

 

  • Volumen de reseñas recientes: si el negocio está experimentando un bombardeo de reseñas (ya sean positivas para contrarrestar las negativas, o negativas como en este caso), Google a veces congela la publicación de nuevas reseñas por un tiempo para investigar y evitar la manipulación. Las capturas de pantalla muestran varias reseñas publicadas "hace un día" o "hace 2 días", lo que podría indicar un alto volumen de actividad reciente.

 

  • Filtrado de contenido sensible: Google a veces es más cauteloso con las reseñas que mencionan "valores humanos" o "empatía" en un contexto donde ha habido acusaciones de lo contrario (como el antisemitismo). Aunque tu reseña es positiva, el algoritmo podría interpretarla como una "respuesta" a las reseñas negativas, y por precaución, la retiene.

 

  • Error del sistema: es posible que sea simplemente un error del algoritmo de Google. A pesar de la sofisticación de sus sistemas, a veces cometen errores y marcan contenido legítimo como inapropiado.

 

Esto provoca que, en ocasiones, mensajes positivos sobre valores universales como la humanidad y la defensa de la infancia sean considerados “contenido sensible” o “manipulación”, y que las críticas negativas —aunque infrinjan las normas— pasen los filtros por utilizar un lenguaje “neutral” o “técnico”.

 

¿Fallan los filtros?

Google tiene políticas estrictas para garantizar que las reseñas sean útiles, relevantes y respetuosas. Pero en este caso, muchas de las críticas negativas visibles parecen violar esas políticas y, sin embargo, permanecen activas aunque incluyan:

 

  • Discurso de odio y discriminación: algunas reseñas negativas mencionan “antisemitismo”, “sionismo” o hacen comparaciones históricas inapropiadas, lo que podría ser considerado discurso de odio según las normas de Google, y debería ser eliminado.

 

  • Ataques personales: comentarios que descalifican directamente al dueño o al personal con acusaciones sin fundamento deberían ser removidos.

 

  • Contenido ajeno al negocio: muchas reseñas se centran en cuestiones políticas o sociales, no en la experiencia culinaria, algo que Google considera fuera de tema.

 

  • Información falsa: los primeros usuarios que compartieron el vídeo, situaron el restaurante en Málaga, pero pronto esta información fue corregida. Algunas reseñas todavía sitúan el restaurante en esta ciudad, cuando en realidad se encuentra en Vigo.   

 

  • Campañas coordinadas: el patrón de cuentas nuevas y lenguaje repetitivo indica campañas organizadas, que Google, en teoría, intenta detectar y frenar.
MIMASSA
Reseñas negativas y falsas recibidas por el restaurante Mimassa que partía de una puntuación de 4,7 estrellas

A pesar de todo lo expuesto, estas reseñas permanecen visibles, mientras que las positivas que cumplen las reglas son bloqueadas o retenidas por el sistema automático. ¿Quá hacer entonces?

 

  • Verificar el estado: en la sección de contribuciones de Google Maps, se puede consultar el estado de la reseña. A veces se marca como "No publicada" o "Pendiente".

 

  • Contactar con el soporte de Google: si se sospecha que la reseña ha sido marcada erróneamente, se puede intentar contactar con el soporte de Google o buscar ayuda en los foros de la comunidad de Google Business Profile, explicando la situación y proporcionando el texto de la reseña.

 

  • Reportar las reseñas problemáticas: es crucial que las reseñas que contienen discurso de odio, discriminación o contenido fuera de tema sean denunciadas a Google. Puede hacerse directamente desde cada reseña haciendo clic en los tres puntos y seleccionando "Marcar como inapropiada". Google tiene un proceso para revisar estas denuncias, aunque no siempre es inmediato.

 

¿Qué se puede hacer?

No hay evidencia pública de que Google favorezca deliberadamente un discurso sobre otro, pero los algoritmos pueden incorporar sesgos inadvertidos

 

Estudios independientes sobre la IA de Google para detectar “lenguaje de odio” (la API Perspective) han mostrado que un filtro automático de Google podría confundir giros lingüísticos o referencias culturales de un grupo (por ejemplo, insultos en otro idioma) con discurso de odio, mientras pasa por alto contenidos similares en otro contexto. 

 

Para sortear estos sesgos, se aconseja a quienes deseen dejar reseñas positivas:

 

  • Enfocar la opinión en la calidad de la experiencia gastronómica y el trato recibido, sin hacer referencias explícitas a conflictos o términos sensibles.

 

  • Usar un lenguaje respetuoso, positivo y personal.

 

  • Evitar repetir textos o frases similares para evitar ser marcados como spam.

 

  • Añadir detalles concretos y únicos, como platos favoritos o aspectos del ambiente.

 

Precedentes: guerras, boicots y filtros

No es la primera vez que Google se ve forzado a intervenir en su sistema de reseñas por un conflicto político. Durante el comienzo de la guerra en Ucrania, en 2022, la plataforma bloqueó la publicación de nuevas reseñas en negocios rusos ante una oleada de opiniones falsas relacionadas con la invasión. 

 

En octubre de 2023, tras los ataques de Hamas en los territorios ocupados por Israel, Google bloqueó temporalmente las reseñas en Gaza y Cisjordania, así como en otras zonas específicas.

 

En España, varios restaurantes catalanes sufrieron boicots digitales por expresar apoyo al independentismo. El restaurante Semproniana de Barcelona, por ejemplo, fue atacado en Google, Facebook y TripAdvisor con puntuaciones falsas por haber organizado una cena solidaria con presos políticos.

Troll de las redes sociales que acosa las personas en las redes sociales

El caso del restaurante Mimassa pone sobre la mesa una cuestión crítica para la era digital: ¿hasta qué punto los algoritmos deben tener la última palabra en la gestión de la opinión pública? ¿Cómo garantizar que la moderación automática no se convierta en un instrumento de censura indirecta, especialmente en causas éticas universales como la defensa de la infancia y la humanidad?

 

Mientras el mundo busca mayor justicia social, también debe repensar cómo las plataformas tecnológicas equilibran la libertad de expresión, la protección frente al abuso y el respeto a los valores humanos fundamentales.

Sistemas automatizados de Google permiten la difusión de contenido tóxico y falso, y bloquean reseñas positivas

Te puede interesar