inoticia

Noticias De Actualidad
Teslas con piloto automático un paso más cerca del retiro después de accidentes

DETROIT (AP) — Los vehículos Tesla con sistemas de conducción parcialmente automatizados están un paso más cerca de ser retirados del mercado después de que Estados Unidos elevó su investigación sobre una serie de colisiones con vehículos de emergencia estacionados o camiones con señales de advertencia.

La Administración Nacional de Seguridad del Tráfico en las Carreteras dijo el jueves que está actualizando la sonda Tesla a un análisis de ingeniería, otra señal de un mayor escrutinio del fabricante de vehículos eléctricos y los sistemas automatizados que realizan al menos algunas tareas de conducción.

Los documentos publicados el jueves por la agencia plantean algunos problemas serios sobre el sistema de piloto automático de Tesla. La agencia descubrió que se está utilizando en áreas donde sus capacidades son limitadas y que muchos conductores no toman medidas para evitar accidentes a pesar de las advertencias del vehículo.

La investigación ahora cubre 830,000 vehículos, casi todo lo que el fabricante de automóviles de Austin, Texas, ha vendido en los EE. UU. desde el comienzo del año modelo 2014.

NHTSA informó que encontró 16 choques contra vehículos de emergencia y camiones con señales de advertencia, que causaron 15 heridos y una muerte.

Los investigadores evaluarán datos adicionales, el rendimiento del vehículo y “explorarán el grado en que el piloto automático y los sistemas asociados de Tesla pueden exacerbar los factores humanos o los riesgos de seguridad del comportamiento, lo que socava la eficacia de la supervisión del conductor”, dijo la agencia.

Se dejó un mensaje el jueves en busca de comentarios de Tesla.

Un análisis de ingeniería es la etapa final de una investigación y, en la mayoría de los casos, la NHTSA decide dentro de un año si se debe retirar el producto o se debe cerrar la investigación.

En la mayoría de los 16 choques, los Tesla emitieron alertas de colisión a los conductores justo antes del impacto. El frenado de emergencia automático intervino para al menos reducir la velocidad de los automóviles en aproximadamente la mitad de los casos. En promedio, Autopilot entregó el control de los Tesla menos de un segundo antes del accidente, dijo la NHTSA en documentos que detallan la investigación.

NHTSA también dijo que está investigando choques que involucran patrones similares que no incluyeron vehículos de emergencia o camiones con señales de advertencia.

La agencia descubrió que, en muchos casos, los conductores tenían las manos en el volante como requiere Tesla, pero no tomaron medidas para evitar un choque. Esto sugiere que los conductores cumplen con el sistema de monitoreo de Tesla, pero no garantiza que estén prestando atención.

En los accidentes donde el video está disponible, los conductores deberían haber visto los vehículos de primeros auxilios un promedio de ocho segundos antes del impacto, escribió la agencia.

La agencia tendrá que decidir si hay un defecto de seguridad con el piloto automático antes de realizar un retiro.

Los investigadores también escribieron que el uso o mal uso del sistema de monitoreo del conductor por parte de un conductor “o la operación de un vehículo de manera no intencionada no excluye necesariamente un defecto del sistema”.

El documento de la agencia dice que el método de Tesla para asegurarse de que los conductores presten atención no es lo suficientemente bueno, que es defectuoso y debe retirarse del mercado, dijo Bryant Walker Smith, profesor de derecho de la Universidad de Carolina del Sur que estudia vehículos automatizados.

“Es realmente fácil tener una mano en el volante y estar completamente desconectado de la conducción”, dijo. El monitoreo de la posición de la mano de un conductor no es efectivo porque solo mide una posición física. “No se preocupa por su capacidad mental, su compromiso o su capacidad de respuesta”.

Sistemas similares de otras compañías, como Super Cruise de General Motors, usan cámaras infrarrojas para observar los ojos o la cara del conductor para asegurarse de que esté mirando hacia adelante. Pero incluso estos sistemas aún pueden permitir que un conductor se desconecte, dijo Walker Smith.

“Esto se confirma estudio tras estudio”, dijo. “Este es un hecho establecido de que las personas pueden parecer comprometidas y no estar comprometidas. Puede tener la mano en el volante y puede estar mirando hacia adelante y no tener la conciencia situacional que se requiere”.

En total, la agencia analizó 191 accidentes, pero eliminó 85 de ellos porque otros conductores estaban involucrados o no había suficiente información para hacer una evaluación definitiva. De los 106 restantes, la causa principal de alrededor de una cuarta parte de los choques parece ser el funcionamiento del Autopilot en áreas donde tiene limitaciones o en condiciones que pueden interferir con su funcionamiento.

“Por ejemplo, operación en carreteras que no sean autopistas de acceso limitado, u operación en entornos de baja tracción o visibilidad como lluvia, nieve o hielo”, escribió la agencia.

Otros fabricantes de automóviles limitan el uso de sus sistemas a carreteras divididas de acceso limitado.

La Junta Nacional de Seguridad en el Transporte, que también investigó algunos de los accidentes de Tesla que datan de 2016, recomendó que la NHTSA y Tesla limiten el uso del piloto automático. a áreas donde pueda operar con seguridad. La NTSB también recomendó que la NHTSA requiera que Tesla tenga un mejor sistema para asegurarse de que los conductores presten atención. NHTSA aún tiene que actuar sobre las recomendaciones. La NTSB solo puede hacer recomendaciones a otras agencias federales.

En un comunicado, NHTSA dijo que no hay vehículos disponibles para comprar hoy que puedan conducirse solos. “Cada vehículo disponible requiere que el conductor humano tenga el control en todo momento, y todas las leyes estatales responsabilizan al conductor humano por la operación de sus vehículos”, dijo la agencia.

Los sistemas de asistencia al conductor pueden ayudar a evitar accidentes, pero deben usarse de manera correcta y responsable, dijo la agencia.

Tesla realizó una actualización en línea del software Autopilot el otoño pasado para mejorar la detección de la cámara de las luces de los vehículos de emergencia en condiciones de poca luz. NHTSA ha preguntado por qué la compañía no hizo un retiro.

NHTSA comenzó su investigación en agosto del año pasado después de una serie de accidentes desde 2018 en los que Teslas que usaban los sistemas de control de crucero con conocimiento del tráfico o piloto automático de la compañía golpearon vehículos en escenas donde los socorristas usaron luces intermitentes, bengalas, un tablero de flechas iluminado o conos de advertencia de peligros.