Федеральное расследование аварий с автопилотом Tesla нашло их причину — «неправильное использование»
Национальная администрация безопасности дорожного движения (NHTSA) закрыла расследование в отношении системы помощи водителю Tesla Full Self-Driving (FSD), рассмотрев сотни аварий, в том числе 13 со смертельным исходом, связанных с её «неправильным использованием». Одновременно NHTSA начинает новое расследование, чтобы оценить насколько эффективны доработки автопилота, произведённые Tesla во время отзывной компании в декабре.
Закрытие первоначального расследования, которое началось в 2021 году, знаменует собой конец одной из наиболее заметных попыток правительства по тщательному изучению программного обеспечения автопилота Tesla. Сегодня Управление по расследованию дефектов NHTSA сообщило о проделанном «обширном объёме работы», который позволяет сделать вывод, что «слабая система взаимодействия с водителем Tesla не соответствует допустимым эксплуатационным возможностям автопилота».
«Это несоответствие привело к критическому разрыву в безопасности между ожиданиями водителей относительно рабочих возможностей [автопилота] и истинными возможностями системы, — пишет агентство в своём отчёте. — Этот разрыв привёл к предсказуемому неправильному использованию и сбоям, которых можно было избежать».
NHTSA сообщило, что в ходе расследования было рассмотрено 956 зарегистрированных аварий до 30 августа 2023 года. Примерно в половине (489) из них агентство не выявило «вины» автопилота либо не располагало достаточными данными для проведения оценки.
Оставшиеся 467 аварий были условно разделены на три группы. В наиболее серьёзных 211 авариях «лобовая плоскость Tesla столкнулась с другим транспортным средством или препятствием, и у внимательного водителя было достаточно времени, чтобы отреагировать, чтобы избежать столкновения или смягчить его последствия». 145 аварий были связаны с «выездом за пределы проезжей части в условиях низкой тяги, например, на мокрой дороге». 111 аварий произошли при выезде на проезжую часть, когда «система автоматического рулевого управления была случайно отключена действиями водителя».
Агентство полагает, что серьёзные последствия аварий часто являются результатом того, что «ни система, ни водитель не реагируют должным образом, что приводит к перепадам скоростей и высоким энергетическим последствиям».
Tesla требует от водителей при использовании автопилота следить за дорожной обстановкой и держать руки на руле, что контролируется при помощи датчика крутящего момента, а в новых автомобилях — камеры в салоне. Но NHTSA и другие группы безопасности считают, что этих мер «недостаточно для предотвращения злоупотреблений». Tesla согласилась обновить программное обеспечение, чтобы улучшить мониторинг действий водителей. Но это обновление, похоже, не сильно изменило автопилот — по данным NHTSA, некоторые части этого обновления ПО требуют согласия владельца, а Tesla позволяет водителю «легко отменить» некоторые меры безопасности.
Агентство выявило огромные пробелы в телематических данных, собираемых Tesla, что создаёт неопределённость относительно фактической частоты аварий. По данным агентства, Tesla получает данные лишь при срабатывании подушек безопасности, преднатяжителей ремней безопасности или функции смягчения воздействия на пешеходов на капоте автомобиля. NHTSA полагает, что из всех аварий, о которых сообщается в полицию, Tesla осведомлена лишь примерно о 18 %.
Министерство юстиции США проводит собственное расследование в отношении Tesla, а Департамент транспортных средств Калифорнии обвинил компанию в ложной рекламе возможностей автопилота и потребовал углублённого тестирования программного обеспечения FSD. Компания также столкнулась с многочисленными судебными исками в отношении автопилота. Тем не менее, Tesla не меняет курс и изо всех сил пытается добиться полной автономности её транспортных средств.