Tesla apaga su piloto automático un segundo antes de chocar
Así lo revela un informe de una agencia reguladora que analizó los choques en los que hay un Tesla involucrado. Los autos suspendían el Autopilot un segundo antes de que se produjera el incidente, para que su sistema estrella no figure en los informes y se enfrente a regulaciones
Elon Musk sueña con viajar a Marte y establecer una nueva civilización allí. Pese a que pone todo de sí –y de su dinero– en desarrollar sistemas de última tecnología para colonizar el espacio, todavía no logra dominar el piloto automático de sus autos Tesla. Es que, según un informe de la Administración Nacional de Seguridad del Tráfico en las Rutas de Estados Unidos (NHTSA, por sus siglas en inglés), los vehículos Tesla representaron casi el 70% de los 392 choques que involucraron sistemas avanzados de asistencia al conductor reportados desde julio pasado, y la mayoría de las muertes y lesiones graves, algunas de las cuales datan de hace más de un año.
El reporte alertó que los Tesla con su software de piloto automático (Autopilot) estuvieron involucrados en 273 accidentes, muchos más de los que se conocían anteriormente y brindan evidencia concreta sobre el desempeño en el mundo real de sus características futuristas.
De esta manera, el sueño de un piloto automático completo se aleja todavía más para Musk. ¿Por qué? Pese a que el Autopilot de Tesla es un conjunto de sistemas que permite a los conductores ceder el control físico de sus vehículos eléctricos, todavía necesita de un conductor atento en todo momento, porque el desarrollo no es lo suficientemente confiable como para que el auto conduzca solo.
De hecho, el Washington Post reportó que algunos expertos en seguridad del transporte expresaron su preocupación por la seguridad de la tecnología, ya que se está probando y entrenando en vías públicas con otros conductores. Los funcionarios federales pusieron el foco en Tesla en los últimos meses con un número cada vez mayor de investigaciones, retiros del mercado e incluso advertencias públicas dirigidas a la empresa.
Tesla, en el ojo de la tormentaA los continuos golpes al valor de sus acciones –en parte por los cierres en si Gigafábrica de China y en parte por el "circo" de la compra de Twitter–, se suma ahora la intensificación en las investigaciones por parte de los reguladores. El principal problema es el conjunto ampliado de características llamado beta de "Conducción autónoma total", que agrega la capacidad de maniobrar en calles urbanas y residenciales, detenerse en señales de alto y semáforos, y girar mientras conduce vehículos de un punto a otro.
Una orden de los reguladores requiere que los fabricantes informen los bloqueos en los que el software estaba en uso dentro de los 30 segundos posteriores al bloqueo, en parte para mitigar la preocupación de que los fabricantes ocultaran los bloqueos al afirmar que el software no estaba en uso en el momento del impacto. Y ahí es donde se complica para Tesla: según reveló la NHTSA, los vehículos de la automotriz de Elon Musk apagan el sistema avanzado de asistencia al conductor alrededor de un segundo antes del impacto.
“Estas tecnologías son una gran promesa para mejorar la seguridad, pero necesitamos entender cómo funcionan estos vehículos en situaciones del mundo real”, dijo el administrador de la NHTSA, Steven Cliff, en una llamada con los medios sobre el conjunto completo de datos de los fabricantes.
En este sentido, Elon Musk dijo en enero que no hubo accidentes ni lesiones relacionadas con el software beta Full Self-Driving, que implementó para un número más limitado de conductores para la prueba. Sin embargo, es mucho más difícil chequear esas afirmaciones cuando el sistema se apaga justo antes de cada incidente.
El problema de los datosEl reporte de la NHTSA provee datos muy interesantes y representa un avance, porque antes los reguladores debían basarse en datos de informes de medios, notificaciones de fabricantes y otras fuentes esporádicas para conocer los incidentes relacionados con la asistencia avanzada al conductor.
Ahora, tiene información mucho más certera sobre los problemas de los pilotos automáticos. “Reveló que están ocurriendo más accidentes de los que NHTSA había conocido anteriormente”, dijo Phil Koopman, profesor de ingeniería en la Universidad Carnegie Mellon que se enfoca en la seguridad de los vehículos autónomos. Señaló que los informes pueden omitir más choques menores, incluidos los golpes de guardabarros.
Sin embargo, los datos todavía no están del todo analizados, ni tampoco categorizados. Así, Tesla se puede ver perjudicada por estar sobrerepresentada –provee una carga de información mucho mayor a otras compañías y también es el que más autos de este tipo vende, facilitando su evaluación en distintos ámbitos– y por la falta de segmentación –no se sabe, por ejemplo, el kilometraje de uso de los diferentes sistemas de asistencia al conductor o qué tan ampliamente se implementaron en las flotas de los fabricantes de automóviles–.
Según Tesla, el piloto automático es más seguro que la conducción normal cuando se comparan los datos de accidentes, por lo que se podría “reducir la frecuencia y la gravedad de los choques de tránsito y salvar miles de vidas cada año” si se cumple la promesa de un piloto automático efectivo. No es tan así: no se puede comparar los accidentes que mide la NHTSA cada año con los de piloto automático, porque el Autopilot se usa principalmente en autopistas, mientras que la gran mayoría de accidentes suceden en ambitos urbanos como calles o avenidas.
Para el CEO de Tesla, el Autopilot sigue siendo "inequívocamente más seguro". “La promesa de estos, el potencial de estos es, en última instancia, hacer que la conducción sea más segura. Es una pregunta abierta si estos sistemas en general o los sistemas individuales han logrado eso", explicó Bryant Walker Smith, profesor de derecho en la Universidad de Carolina del Sur que estudia tecnologías de transporte emergente, al medio citado.
El piloto automático de Tesla está en alrededor de 830.000 vehículos desde 2014, y todavía no existen regulaciones que lo aborden en su totalidad. Esto es, en parte, por la falta de datos. Por eso, como parte de su investigación sobre accidentes con vehículos de emergencia estacionados, la NHTSA dijo que está investigando si el piloto automático “puede exacerbar los factores humanos o los riesgos de seguridad del comportamiento”.