
A ver, seamos sinceros. Todos hemos improvisado alguna vez al volante. Ya sea esquivar una obra inesperada o decidir si el del carril de al lado te ha visto. Pero cuando hablamos de coches autónomos, esos aparatos futuristas que nos prometen cero fallos, la palabra “improvisar” o, mejor dicho, “adivinar” suena a chiste. Pues agárrate, porque Waymo, la rama de conducción autónoma de Google, ha soltado la bomba: sus vehículos a menudo están, ejem, haciendo conjeturas.
El secreto inconfesable del coche robot
Imagínate la escena. Llevas años diseñando la inteligencia artificial perfecta, la que va a revolucionar el transporte. Y de repente, un ingeniero tiene que admitir que en escenarios “demasiado complejos” (léase, cualquier cosa que no sea una autopista perfectamente lineal o una calle tranquila), el coche no tiene una respuesta programada. En lugar de eso, recurre a lo que los expertos llaman modelado estocástico. Traducido para mortales: una adivinanza elegante basada en la estadística.
No es que el coche se ponga a tirar una moneda al aire, ojo. Lo que hacen estos sistemas es analizar millones de datos previos y calcular la acción con la mayor probabilidad de éxito. Por ejemplo, si hay un accidente nuevo que nunca han visto, el coche no conoce la regla exacta, pero predice (o adivina) que un humano tendería a frenar y desviarse suavemente, y hace eso mismo. Básicamente, se convierte en un conductor novato que confía en sus instintos… pero con el respaldo de Big Data.
Cuando la IA prefiere ‘pasar palabra’
La noticia, que ha corrido como la pólvora en los foros tecnológicos, subraya un problema fundamental de la IA en la conducción: los “casos límite” (o edge cases). La IA es brillante para las tareas repetitivas y previsibles. Pero en cuanto aparece un patinete haciendo el caballito, un operario con un cartel confuso o una bolsa de basura que se mueve de forma extraña, el sistema dice: “Aquí mis datos no me sirven, voy a tantear el terreno”.
Waymo tuvo que reconocer que, aunque sus sistemas son robustos, la realidad es infinita y caótica. Y claro, cuando la programación no cubre el caos, se opta por la conjetura informada. Esto no es un fallo catastrófico, pero sí es un jarro de agua fría para quienes pensaban que la conducción autónoma era una ciencia exacta. Es más bien una ciencia de la probabilidad con un alto componente de fe en sus algoritmos predictivos.
Así que la próxima vez que veas un Waymo circulando con extrema cautela, piensa que quizás no está siendo solo prudente, sino que está jugando a las adivinanzas con la carretera. Lo importante es que, de momento, parece que aciertan más que fallan. Pero la idea de que nuestro conductor del futuro sea un adivino profesional sigue siendo deliciosamente irónica y muy de 2023.
