La Administración Nacional de Seguridad del Tráfico en Carreteras de Estados Unidos (NHTSA) ha mejorado su investigación sobre el sistema de "conducción totalmente autónoma" (FSD) de Tesla, según documentos publicados en su sitio web oficial el jueves. Esta investigación sobre el Tesla FSD se centra en sus posibles fallos de seguridad, es decir, en condiciones de niebla intensa, luz intensa u otroscondiciones de baja visibilidad en la carreteraEl uso de este sistema de forma peligrosa puede poner en riesgo al conductor.

Los documentos en el sitio web oficial de la oficina muestran que la investigación comenzó el año pasado e involucró3,2 millones de vehículos Tesla, incluidos modelos eléctricos como el Model S, X, 3, Y y Cybertruck que pueden equiparse con el sistema de asistencia al conductor FSD de la compañía.
La agencia señaló que el Tesla FSD puede aparecer en condiciones de visibilidad reducida (como fuertes reflejos de luz, obstrucción por objetos suspendidos en el aire, etc.)No se pueden reconocer adecuadamente las condiciones de la carretera o no se emite la advertencia adecuada al conductor.problema.
En muchos de los accidentes revisados por la oficina, el sistema de Tesla "no reconoció las condiciones comunes de la carretera que afectaron el campo de visión de la cámara y/o no emitió alertas oportunas cuando el rendimiento de la cámara se degradaba hasta inmediatamente antes de que ocurriera el accidente".
Las quejas se produjeron tras una serie de accidentes en los que los vehículos implicados tenían el FSD activado 30 segundos antes de la colisión. En uno de los accidentes, un conductor de Tesla con FSD activado atropelló y mató a un peatón. Desde entonces, la investigación se ha elevado aFase de análisis de ingeniería.
Tesla no ha respondido a las solicitudes de comentarios hasta el momento.