Científicos hackean coches autónomos usando el cartel de “adelante”

Los textos presentados a las cámaras de los coches por peatones confunden la IA y generan movimientos inapropiados en coches autónomos, según los científicos

La optimización de colores y fuentes mediante IA generativa es lo que hace que el comando malicioso sea más convincente para el vehículo (Foto: Nissan | Revelación)
Por Tom Schuenk
Publicado el 02/03/2026 a las 17:00
Actualizado el 02/03/2026 a las 17:16

Investigadores de la Universidad de California han demostrado que los sistemas multimodales de inteligencia artificial, diseñados para la próxima generación de vehículos autónomos, pueden manipularse mediante comandos visuales rudimentarios. El ataque, llamado CHAI, utiliza solo papel y tinta en planchas impresas para confundir el razonamiento lógico de las máquinas. A diferencia de técnicas anteriores, que intentaban ocultar o tergiversar señales de tráfico, esta nueva vulnerabilidad inserta textos que el sistema está entrenado para leer e interpretar, influyendo directamente en la toma de decisiones al volante.

VÉASE TAMBIÉN:

Cómo funciona la manipulación visual

El foco del ataque es el proceso intermedio de “pensamiento” de los llamados Grandes Modelos de Visión y Lenguaje (LVLM). En lugar de cegar al coche, la táctica cambia la forma en que la IA entiende el contexto de la carretera. Los científicos utilizaron inteligencia artificial generativa para optimizar los colores, fuentes y tamaños de los mensajes, maximizando la eficacia de la trampa. En simulaciones, el método tuvo un éxito del 81,8%.

Durante las pruebas con entornos en miniatura, el algoritmo obedecía la instrucción impresa de avanzar incluso al detectar obstáculos físicos delante, demostrando que una orden visual maliciosa puede anular la lectura de los sensores de proximidad. Pequeños ajustes estéticos determinan el defecto: el modelo DriveLM, por ejemplo, ignoró un cartel falso en tonos neón, pero se engañaron cuando los colores cambiaron a amarillo sobre verde oscuro. Incluso se persuadió al sistema para realizar pasos de peatones peligrosos usando comandos en diferentes idiomas.

Pequeños ajustes en el contenido y los colores hicieron que este ataque simulado CHAI pasara de fallido a exitoso. Universidad de California
Foto: Universidad de California

Capas de seguridad y la respuesta de la industria

A pesar de los alarmantes resultados en el laboratorio, las empresas del sector argumentan que los vehículos de producción actuales tienen redundancias de seguridad frente a este tipo de invasión. Representantes de Mobileye, por ejemplo, explicaron que sus coches no dependen de un único modelo lógico, sino de un sistema en el que los sensores de radar, el lidar y las cámaras “votan” la decisión final. Si aparece una señal atípica y el comportamiento del tráfico circundante no la sigue, el sistema tiende a ignorar la anomalía. Aun así, el estudio sirve como advertencia para futuras arquitecturas de conducción autónoma, reforzando la premisa de que el mundo físico capturado por los sensores debe tener siempre prioridad sobre los comandos puramente textuales.

0 comentarios
Los comentarios son responsabilidad exclusiva de sus autores y no representan la opinión de este sitio. Los comentarios con groserías u ofensas no serán publicados. Si identificas algo que viole los términos de uso, repórtalo.
Avatar
Dejar un comentario