CNET plagia finanzas con IA y Zillow quiebra su imperio algorítmico

cnet y zillow

CNET publica 77 artículos financieros generados por IA repletos de errores matemáticos graves; Zillow pierde 380 millones y despide a 2.000 empleados por confiar ciegamente en su algoritmo de valoración inmobiliaria. Dos casos que demuestran cómo la obsesión por el volumen automatizado puede destruir credibilidad y negocios enteros.

CNET: cuando la IA calcula mal los intereses compuestos

A principios de 2023, CNET lanzó un experimento ambicioso: publicar artículos financieros generados automáticamente por inteligencia artificial. En total, se lanzaron 77 piezas bajo la firma genérica “CNET Money Staff”, cubriendo temas como préstamos, hipotecas y planificación financiera.

El problema surgió cuando otros medios y expertos en finanzas realizaron una auditoría exhaustiva. De los 77 artículos, 41 contenían errores factuales graves, incluyendo cálculos matemáticos completamente equivocados. Un ejemplo paradigmático: un artículo afirmaba que un depósito de 10.000 dólares al 3% de interés anual compuesto generaría una ganancia de 10.300 dólares, cuando la cifra real era de apenas 300 dólares. Otros textos presentaban fórmulas distorsionadas, datos desactualizados o frases copiadas literalmente de otras fuentes sin atribución adecuada, detectables incluso por herramientas básicas de plagio.

CNET se vio obligada a pausar inmediatamente el experimento, emitir correcciones masivas en decenas de artículos y admitir públicamente que sus procesos de revisión interna habían fallado. El caso se convirtió en un referente de ética digital y un aviso para toda la industria de medios que coquetea con la automatización de contenidos. Analistas como los de The Verge señalaron que el afán por producir volumen barato para optimizar motores de búsqueda (SEO) había primado sobre la precisión periodística esencial en temas financieros, donde un error puede costar miles de dólares a lectores confiados.

La IA no entiende matemáticas complejas (ni lógica, ni ética …)

El escándalo CNET ilustra un problema estructural de los modelos de lenguaje generativos: son excelentes para producir texto fluido y plausible, pero fallan estrepitosamente en cálculos precisos o razonamientos lógicos que requieren comprensión profunda. En finanzas, donde una coma mal puesta puede multiplicar o anular rentabilidades, delegar redacción completa a IA sin verificación humana es una negligencia grave. Organismos periodísticos como Poynter recomiendan limitar la IA a tareas auxiliares, como transcripciones o resúmenes de datos públicos y reservar la publicación final para periodistas que validen cada cifra y fuente.

Zillow iBuying: el algoritmo que compró casas demasiado caras

Si CNET dañó su credibilidad editorial, Zillow, un gigante inmobiliario estadounidense, puso en jaque su modelo de negocio entero. En 2018 lanzó “Zillow Offers”, un ambicioso programa de iBuying basado en su algoritmo estrella, Zestimate, que prometía valorar viviendas con precisión milimétrica para comprarlas directamente a propietarios, hacer reformas mínimas y revenderlas con beneficio.

Durante un tiempo, funcionó: Zillow compró miles de propiedades en 25 mercados clave. Pero la volatilidad post-pandemia de COVID-19 expuso las grietas del modelo. El algoritmo subestimaba subidas abruptas de precios y sobrevaloraba inmuebles en zonas con problemas de oferta de mano de obra para reformas. En meses, la empresa se quedó con un inventario de 7.000 casas compradas a precios inflados que no podía mover sin pérdidas masivas.

En noviembre de 2021, Zillow anunció el cierre definitivo de la división: 304 millones de dólares en depreciaciones solo en el tercer trimestre, pérdidas totales estimadas en 380 millones y el despido del 25% de su plantilla global, unos 2.000 trabajadores directamente ligados al iBuying. El CEO Rich Barton admitió en comunicado que “la complejidad y volatilidad del mercado inmobiliario actual es demasiado difícil de predecir con la precisión necesaria” para su algoritmo. Estudios académicos posteriores, como el de SSRN, han analizado el caso como ejemplo clásico de “fallo algorítmico” en predicción de precios de activos reales.

Predicción perfecta en teoría, caos en la práctica

El desastre de Zillow resalta los límites de la IA en entornos dinámicos: mercados con “cisnes negros” (eventos imprevisibles), cadenas de suministro frágiles y variables locales que ningún dataset histórico captura al 100%. Lecciones clave incluyen realizar simulaciones de estrés sistemáticas, establecer límites de exposición máxima por modelo y combinar siempre predicciones algorítmicas con juicio humano cualitativo basado en experiencia de mercado.

Volumen automatizado vs. realidad volátil: el coste humano de la IA descontrolada

CNET y Zillow comparten un patrón letal: priorizar escala y velocidad sobre precisión y resiliencia. En el primero, 77 artículos generaron desconfianza masiva; en el segundo, una apuesta algorítmica costó cientos de millones y miles de empleos. Ambos casos subrayan que la IA amplifica errores humanos cuando no hay “frenos” institucionales: auditorías independientes, revisión humana obligatoria y planes de contingencia para cuando el modelo falle.

La moraleja es doble. Para medios y empresas: la IA es herramienta de apoyo, no motor principal. Para reguladores y usuarios: exigir transparencia sobre su uso y límites. Solo así se evita que la promesa de eficiencia se convierta en sinónimo de desastre.

Preguntas frecuentes sobre IA, errores y colapsos empresariales

¿Qué ocurrió con CNET y la IA?
Publicó artículos financieros generados por IA con errores matemáticos y plagio, dañando su credibilidad.
¿Por qué falló el algoritmo de Zillow?
No pudo predecir la volatilidad real del mercado inmobiliario tras la pandemia.
¿La IA puede hacer cálculos financieros fiables?
No sin validación humana; los modelos de lenguaje fallan en matemáticas complejas.
¿Qué riesgos tiene basar un negocio en IA?
Amplificar errores y provocar pérdidas masivas si no hay límites ni control humano.
¿Cómo deberían usar la IA medios y empresas?
Como herramienta de apoyo, nunca como decisor principal sin supervisión.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Scroll al inicio