11 abril 2022

¿Deberían los coches conducir como humanos o como robots? Tesla fuerza la pregunta

9 de abril de 2022, 4:30 a. m. AST

A Matt Smith no necesariamente le importaba que el software dentro de su Tesla eludiera ocasionalmente una ley de tránsito. 

Durante un tiempo, su Tesla Model Y estaba programado para pasar automáticamente las señales de alto a una velocidad de hasta 5,6 millas por hora sin detenerse si detectaba que no había peatones ni otras personas en la costa. En todo caso, las características experimentales de asistencia al conductor de Tesla podrían parecerle un poco conservadoras. 

Matt Smith, de 35 años, posa con su Tesla Model Y.
Matt Smith, de 35 años, posa con su Tesla Model Y.Nick Hagen para NBC News

“A veces se detenía durante cinco segundos a la vez y luego avanzaba lentamente”, dijo Smith, un administrador de inversiones de 35 años que vive en los suburbios de Detroit. “Tú y yo nos sentimos cómodos rodando a 5 millas por hora más o menos si creemos que es seguro hacerlo”. 

Exactamente cuándo el software de Tesla comenzó a realizar paradas rodantes no está del todo claro. En septiembre pasado, un conductor de Tesla publicó un video en las redes sociales de una parada rodante. Y en enero, Tesla lanzó una versión de "modo asertivo" de su "beta de conducción autónoma completa", una opción premium de asistencia al conductor que presentaba paradas rodantes junto con una "distancia de seguimiento más pequeña" y una propensión a "no salir de los carriles de adelantamiento". 

Tesla eliminó recientemente la función de frenos rodantes con una actualización de software, pero el fabricante de automóviles abrió una pregunta en la que el conductor promedio quizás no haya pensado: ¿Deben los automóviles obedecer robóticamente las leyes de tránsito, incluso cuando los conductores humanos a veces las rompen por conveniencia? 

Para los críticos de Tesla, las actualizaciones son evidencia de que la compañía, dirigida por el CEO Elon Musk, opera con poca consideración por las reglas o por otros en la carretera, incluidos los peatones, incluso cuando promueven los posibles beneficios de seguridad de un futuro sin conductor. 

Musk dijo el jueves en la inauguración de una planta de ensamblaje de vehículos Tesla en Austin, Texas, que FSD Beta, un programa completo de conducción autónoma, se implementará para casi todos los propietarios de Tesla que tengan la opción en América del Norte a fines de este año.

“Dijiste que serían conductores perfectos. ¿Por qué les estás enseñando malos hábitos humanos? dijo Phil Koopman, profesor de ingeniería en la Universidad Carnegie Mellon y experto en sistemas avanzados de asistencia al conductor y tecnología de vehículos autónomos. 

Los ejecutivos de Tesla han defendido las elecciones de la compañía, diciendo en una carta al Congreso el mes pasado y en las redes sociales que sus vehículos son seguros. 

“No hubo problemas de seguridad”, tuiteó Musk en febrero después de que Tesla deshabilitara las paradas automáticas. Dijo que los autos simplemente redujeron la velocidad a aproximadamente 2 millas por hora y continuaron adelante si la vista estaba despejada y no había autos ni peatones presentes.

Tesla no respondió a las solicitudes de entrevista o comentarios sobre cómo las funciones de asistencia al conductor deberían interactuar con las leyes de tránsito. 

Smith, el conductor de Tesla que administra un fondo que posee acciones en la compañía, dijo que está dividido por el enfoque de Tesla porque, a corto plazo, una característica como las paradas rodantes podría dañar la percepción pública de la tecnología en general, incluso si los vehículos automatizados algún día podrían ser más seguros. que los humanos .

“Están superando los límites”, dijo Smith, quien es parte del programa FSD Beta de la compañía, en el que Tesla dice que casi 60,000 clientes están probando, en vías públicas, nuevas funciones de asistencia al conductor que no están completamente depuradas. Dijo que las características están mejorando rápidamente, incluso con una actualización de software esta semana. 

Los clientes deben obtener un puntaje alto en la aplicación de calificación de seguridad en el vehículo de Tesla para obtener acceso, y deben tener la opción de asistencia al conductor premium de la compañía instalada en su automóvil. Tesla dice que monitorea a los conductores con sensores en el volante y una cámara en la cabina para asegurarse de que estén prestando atención mientras usan las funciones, aunque las pruebas realizadas por Consumer Reports encontraron que sus sistemas de monitoreo del conductor son inadecuados. 

En las últimas semanas, Tesla comenzó a ofrecer acceso FSD Beta a los controladores en Canadá, y Musk dijo que el software experimental estaría disponible en Europa a partir de este verano , en espera de las aprobaciones regulatorias. 

Supervisión creciente

El mecanismo de supervisión para los conductores humanos es bastante familiar: luces intermitentes, un oficial de policía y una multa costosa. No es tan claro para los vehículos automatizados. 

La idea de que los automóviles ahora pueden incluir sistemas diseñados para violar intencionalmente las leyes de tránsito presenta un desafío para los reguladores en todos los niveles del gobierno, desde los funcionarios federales que escriben y hacen cumplir las normas de seguridad hasta las autoridades estatales y locales que manejan las señales de tránsito, las licencias y las reglas del la carretera. 

“Necesitamos leyes que aclaren y reguladores que intervengan y responsabilicen a los fabricantes cuando sus sistemas no cumplan con las promesas que hacen”, dijo Daniel Hinkle, asesor principal de asuntos estatales de la Asociación Estadounidense por la Justicia, un grupo comercial para los demandantes. abogados 

Hinkle dijo que solo cinco estados tienen regulaciones vigentes para sistemas de conducción de desarrollo como FSD Beta de Tesla o robotaxis de Cruise, Waymo y otros. Los estados son California, Nevada, Nueva York, Vermont y Washington, además de Washington, DC Otros estados están evaluando nuevas reglas.

Para los expertos y los reguladores, las características que eluden las leyes de tránsito también plantean preguntas complicadas sobre la transparencia en el funcionamiento de estos sistemas patentados y sobre cuánta supervisión pueden tener los reguladores. 

Koopman dijo que es imposible decir qué leyes de tránsito, si las hay, Tesla ha diseñado su software para violar. Incluso si alguien pudiera revisar de forma independiente el código de la computadora del automóvil, eso no sería suficiente, dijo.

“La revisión del código realmente no te ayudaría. Todo es aprendizaje automático. ¿Cómo revisas eso?” él dijo. “No hay forma de saber lo que hará hasta que veas lo que sucede”.

Muchos conductores malinterpretan los límites de la tecnología que ya existe en la carretera hoy en día. El público está confundido acerca de lo que significa "autoconducción", por ejemplo, a medida que los sistemas de asistencia al conductor se vuelven más comunes y más sofisticados. En una encuesta realizada el año pasado por la firma analista JD Power, solo el 37 por ciento de los encuestados eligió la definición correcta de autos sin conductor. 

Ni Tesla ni ninguna otra compañía está vendiendo un vehículo autónomo o autónomo capaz de conducirse solo en una amplia gama de ubicaciones y circunstancias sin un ser humano listo para hacerse cargo. 

No obstante, Tesla comercializa sus sistemas de asistencia al conductor en los EE. UU. con nombres que los reguladores y los expertos en seguridad consideran engañosos , como Autopilot para el paquete estándar y Full Self-Driving para el paquete premium. 

Al mismo tiempo, Tesla advierte a los conductores en los manuales del propietario que es su responsabilidad usar las funciones de manera segura y que deben estar preparados para asumir la tarea de conducir en cualquier momento con los ojos en la carretera y las manos en el volante.

La dificultad de navegar en un entorno impredecible es una de las razones por las que los autos verdaderamente autónomos aún no han aparecido. 

“Un vehículo autónomo tiene que ser mejor y más ágil que el conductor al que reemplaza, no peor”, dijo William S. Lerner, experto en seguridad del transporte y delegado de la Organización Internacional para la Estandarización, un grupo que establece estándares industriales globales. 

“Ojalá estuviéramos allí todavía, pero no lo estamos, a excepción de las carreteras rectas con las típicas rampas de entrada y salida que se han mapeado”, dijo. 

'Atrapado en el tarro de galletas'

La función de parada rodante de Tesla estuvo presente durante meses antes de que llamara mucho la atención. Chris, quien hace una crónica de lo bueno y lo malo de las últimas funciones de Tesla en YouTube bajo el nombre de DirtyTesla , dijo que su Tesla realizó paradas automáticas durante más de un año antes de que Tesla deshabilitara la función. Aceptó ser entrevistado con la condición de que solo se usara su primer nombre debido a preocupaciones de privacidad.

El escrutinio se recuperó este año. Los reguladores de la Administración Nacional de Seguridad del Tráfico en las Carreteras le preguntaron a Tesla sobre la función y, en enero, el fabricante de automóviles inició una actualización de software "por aire" para desactivarla. NHTSA clasificó la actualización de software como un retiro oficial de seguridad .

Los críticos se sorprendieron no solo por la elección de diseñar el software de esa manera, sino también por la decisión de Tesla de probar las funciones con clientes, no con conductores de prueba profesionales.

Los defensores de la seguridad dijeron que no sabían de ninguna jurisdicción de EE. UU. donde las paradas rodantes fueran legales y que no podían determinar ninguna justificación de seguridad para permitirlas. 

“Están violando de manera muy transparente la letra de la ley, y eso es completamente corrosivo para la confianza que están tratando de obtener del público”, dijo William Widen, profesor de derecho en la Universidad de Miami que ha escrito sobre autonomía regulación de vehículos. 

“Sería sincero al respecto”, dijo Widen, “en lugar de que su mano quede atrapada en el tarro de galletas”. 

Los defensores de la seguridad también cuestionaron dos funciones de entretenimiento no relacionadas con la conducción autónoma que, según dijeron, eludían las leyes de seguridad. Uno, llamado Passenger Play, permitía a los conductores jugar videojuegos mientras se movían. Otro, llamado Boombox, permite a los conductores sacar música u otro audio de sus automóviles mientras están en movimiento, un posible peligro para los peatones , incluidas las personas ciegas.

Tesla lanzó recientemente actualizaciones de software para restringir ambas funciones , y la NHTSA abrió una investigación sobre Passenger Play. 

Tesla, el fabricante de vehículos eléctricos más vendido, no ha dicho que las características sean un error ni ha reconocido que pueden haber creado riesgos de seguridad. En cambio, Musk negó que las paradas rodantes pudieran ser inseguras y llamó a los funcionarios federales de seguridad automotriz " la policía divertida " por oponerse a Boombox. 

Por otra parte, la NHTSA está investigando a Tesla por posibles defectos de seguridad en Autopilot, su sistema estándar de asistencia al conductor, después de una serie de choques en los que los vehículos Tesla, con los sistemas activados, chocaron contra vehículos estacionarios de primeros auxilios. Tesla se ha enfrentado a demandas y acusaciones de que el piloto automático no es seguro porque no siempre puede detectar otros vehículos u obstáculos en la carretera. Tesla generalmente ha negado las afirmaciones hechas en las demandas, incluso en un caso en Florida donde dijo en documentos judiciales que el conductor tuvo la culpa de la muerte de un peatón. 

NHTSA rechazó una solicitud de entrevista. 

No está claro qué pueden hacer los reguladores estatales o locales para adaptarse a la realidad que Tesla está tratando de crear. 

“Se espera que todos los vehículos operados en las vías públicas de California cumplan con el Código de Vehículos de California y las leyes de tránsito locales”, dijo el Departamento de Vehículos Motorizados de California en un comunicado. 

La agencia agregó que la tecnología de vehículos automatizados debe implementarse de una manera que "fomente la innovación" y "aborde la seguridad pública", dos objetivos que pueden estar en conflicto si la innovación significa violar las leyes de tránsito deliberadamente. Los funcionarios allí rechazaron una solicitud de entrevista. 

Musk, como la mayoría de los defensores de la tecnología de conducción autónoma, se ha centrado en la cantidad de muertes que resultan de los vehículos operados por humanos actuales. Ha dicho que su prioridad es lograr un futuro sin conductor lo más rápido posible en un intento teórico por reducir las 1,35 millones de muertes anuales por accidentes de tráfico en todo el mundo. Sin embargo, no hay forma de medir qué tan seguro sería un vehículo verdaderamente autónomo, e incluso comparar Teslas con otros vehículos es difícil debido a factores como las diferentes edades de los vehículos. 

Compromisos de la industria 

Al menos otra empresa se ha enfrentado a una acusación de violar deliberadamente las leyes de tránsito, pero con un resultado diferente al de Tesla. 

El año pasado, los funcionarios de la ciudad de San Francisco expresaron su preocupación de que Cruise, cuya propiedad mayoritaria es de General Motors, había programado sus vehículos para hacer paradas en los carriles de circulación en violación del código vehicular de California. Los vehículos sin conductor en desarrollo de Cruise se utilizan en un servicio de robotaxi que recoge y deja pasajeros sin conductor detrás del volante. 

Cruise respondió con algo que Tesla aún no ha ofrecido: una promesa de obedecer la ley. 

“Nuestros vehículos están programados para cumplir con todas las leyes y regulaciones de tránsito”, dijo el portavoz de Cruise, Aaron Mclear, en un comunicado. 

Otra empresa que busca tecnología de conducción autónoma, Waymo, ha programado sus autos para violar las leyes de tránsito solo cuando están en conflicto entre sí, como cruzar una doble línea amarilla para darle más espacio a un ciclista, dijo la portavoz de Waymo, Julianne McGoldrick. 

“Priorizamos la seguridad y el cumplimiento de las leyes de tránsito sobre cuán familiar puede ser un comportamiento para otros conductores. Por ejemplo, no programamos el vehículo para que exceda el límite de velocidad porque eso es familiar para otros conductores”, dijo en un comunicado. 

Una tercera compañía, Mercedes, dijo que estaba dispuesta a hacerse responsable de los accidentes que ocurren en situaciones en las que prometieron que su sistema de asistencia al conductor, Drive Pilot, sería seguro y cumpliría con las leyes de tránsito.

Mercedes no respondió a una solicitud de información sobre su enfoque de los vehículos automatizados y si alguna vez deberían eludir las leyes de tránsito.

Los expertos en seguridad no están listos para darle a Tesla ni a nadie más un pase para infringir la ley. 

“En un momento en que las muertes de peatones están en su punto más alto en 40 años , no deberíamos relajar las reglas”, dijo Leah Shahum, directora de Vision Zero Network, una organización que intenta eliminar las muertes por accidentes de tránsito en los EE. UU. 

“Necesitamos pensar en objetivos más altos, no tener un sistema que no sea peor que el actual. Debería ser dramáticamente mejor”, dijo Shahum.