Regulador de seguridad federal investiga software de conducción totalmente autónoma de Tesla

Spread the love

El principal regulador de seguridad automotriz de EE. UU. ha abierto una nueva investigación sobre el software llamado «Full Self-Driving (Supervised)» de Tesla después de cuatro choques reportados en situaciones de baja visibilidad, incluido uno en el que un peatón resultó muerto. La Oficina de Investigación de Defectos de la Administración Nacional de Seguridad del Tráfico en Carreteras (NHTSA) anunció el viernes que está investigando el sistema de asistencia al conductor para determinar si puede «detectar y responder de manera adecuada a condiciones de visibilidad reducida en la carretera», como «deslumbramiento solar, niebla o polvo en suspensión». La agencia también quiere saber si han ocurrido otros choques en estas condiciones además de los reportados.

La investigación llega justo una semana después de que el CEO de Tesla, Elon Musk, revelara el prototipo de su «Cybercab», un automóvil biplaza que según él se supone que funcionará como un robotaxi, luego de años de promesas incumplidas. Musk también afirmó en el evento que el sedán Model 3 y el SUV Model Y de Tesla podrían operar sin supervisión en California y Texas en algún momento de 2025, aunque no ofreció detalles sobre cómo sucederá.

En abril, la NHTSA cerró una investigación de casi tres años sobre Autopilot, el software de asistencia al conductor menos capaz que ofrece Tesla, después de investigar casi 500 choques en los que el sistema estaba activo. La agencia encontró que 13 de esos choques fueron fatales. Al mismo tiempo que cerró esa investigación, la NHTSA abrió una nueva investigación sobre la corrección de la falla que Tesla había emitido para abordar problemas con Autopilot.

Imagem destacada

El software de Tesla también enfrenta otras amenazas legales. El Departamento de Justicia está investigando las afirmaciones que Tesla ha hecho sobre sus funciones de asistencia al conductor, y el Departamento de Vehículos Motorizados de California ha acusado a Tesla de exagerar las capacidades del software. La compañía también enfrenta una serie de demandas por choques de Autopilot. Resolvió uno de los casos más destacados que estaba listo para ir a juicio a principios de este año. La compañía ha dicho en el pasado que hace saber a los conductores que se supone que deben monitorear constantemente el Full Self-Driving y Autopilot y estar listos para tomar el control en cualquier momento.

La nueva investigación anunciada el viernes menciona específicamente cuatro choques en los que el sistema de Full Self-Driving (Supervised) estaba activo, todos ocurridos entre noviembre de 2023 y mayo de 2024. El choque de noviembre de 2023 ocurrió en Rimrock, Arizona. Involucró a un Model Y que golpeó y mató a un peatón. Otro choque ocurrió en enero de 2024 en Nipton, California, donde un Model 3 chocó con otro automóvil en la carretera durante una tormenta de polvo. En marzo de 2024, un Model 3 chocó con otro automóvil en la carretera en Red Mills, Virginia, durante condiciones nubladas. Y en mayo de 2024, un Model 3 se estrelló contra un objeto estacionario en una carretera rural en Collinsville, Ohio, en condiciones de niebla. La NHTSA señaló que alguien resultó herido en el choque de mayo de 2024.

El equipo de investigaciones de defectos de la NHTSA divide sus investigaciones en cuatro niveles: Petición de Defecto, Evaluación Preliminar, Consulta de Recuerdo y Análisis de Ingeniería. La agencia clasificó esta nueva investigación como una evaluación preliminar. Normalmente, la NHTSA intenta completar estos tipos de investigaciones dentro de ocho meses.

Automattic ofrece a sus empleados otra oportunidad de renunciar, esta vez con nueve meses de indemnización

WP Engine presenta una medida judicial para recuperar el acceso a WordPress.org