Un mando de videoconsola y unas pegatinas en el asfalto fueron suficientes para que unos hackers consiguieran poner a un vehículo Tesla en apuros
Los conocidos hackers Keen Security Lab, los cuales colaboran con Tesla, han encontrado un nuevo fallo de seguridad que deja a los vehículos Tesla en un gran apuro. No es la primera vez que estos hackers han conseguido tomar el control de vehículos Tesla, haciéndolo en 2016 cuando controlaron un Model S de forma remota:
Ahora, una vez más, lo han vuelto a hacer, incluso llegando a conducir el vehículo con un mando de videoconsola. Recientemente, un Tesla Model 3 fue cedido en un campeonato que tenía como objetivo encontrar fallos de seguridad, lo cual consiguieron un equipo de hackers formado por dos personas, consiguiendo entrar en el sistema y que fue solventado por Tesla rápidamente a través de una actualización de software.
En esta ocasión, en lugar de hackear directamente el software Advanced Driver Assistance System (ADAS), Keen Lab optó por investigar sobre cómo podían engañar a los vehículos de Tesla con señales visuales.
A continuación, os mostramos el vídeo de los investigadores que realizaron el estudio, con los resultados de las pruebas a los que fue sometido el Tesla Model S que hackearon:
En un inicio, estos esfuerzos solo afectaron a engañar al sistema automático de limpiaparabrisas del vehículo, del cual se nutre mediante cámaras del Autopilot. Simplemente mostraron imágenes de agua a la cámara delantera y se activó el sistema. Pero a Tesla no le impresionó esta hazaña, sobre la cual se pronunció:
"Esta investigación fue demostrada mostrando una imagen en un televisor que se colocó directamente frente al parabrisas de un automóvil. Esta no es una situación del mundo real a la que se enfrentarían los conductores, ni es una cuestión de seguridad. Además, tal y como se indica en el manual del usuario, el ajuste 'Auto setting para nuestros limpiaparabrisas se encuentra actualmente en BETA'. Un cliente también puede elegir utilizar el ajuste manual del limpiaparabrisas en cualquier momento."
Así pues, los hackers no contentos con ello intentaron probar algo más impresionante, y acabaron utilizando pegatinas adheridas a la carrera para burlar el sistema de reconocimiento de carriles, lo cual consiguieron. Y sí, a esto también contestó Tesla:
"En esta demostración, los investigadores ajustaron el entorno físico (por ejemplo, colocando cinta en la carretera o alterando las líneas de carril) alrededor del vehículo para hacer que el coche se comportara de forma diferente cuando se utiliza el Autopilot. Esta no es una preocupación del mundo real, ya que un conductor puede anular fácilmente el piloto automático en cualquier momento utilizando el volante o los frenos y debe estar preparado para hacerlo en todo momento".
Y en cuanto a controlar el vehículo con un mando de videoconsola, lo cual sin duda es lo más llamativo de todo el experimento llevado a cabo, Tesla dijo lo siguiente:
"La vulnerabilidad principal abordada en este informe fue corregida por Tesla a través de una actualización de seguridad sólida en 2017, seguida de otra actualización de seguridad integral en 2018, las cuales publicamos antes de que este grupo nos informara sobre esta investigación."
Pese a que Tesla se cubre las espaldas en todos los aspectos que han quedado al descubierto en su sistema, se trata de unos fallos importantes que podrían ocasionar más de un problema, por ello, esperamos que tomen medidas y los solucionen a la mayor brevedad.