Tesla: NHTSA исследует программное обеспечение автопилота после серии смертельных аварий
Статьи

Tesla: NHTSA исследует программное обеспечение автопилота после серии смертельных аварий

Национальная администрация безопасности дорожного движения начала расследование в отношении автопилота Tesla после нескольких аварий. Расследование охватывает весь модельный ряд Tesla, около 765,000 автомобилей.

El тесла автопилот снова под огнем. На этот раз все гораздо серьезнее. Национальная администрация безопасности дорожного движения (NHTSA) начала расследование. официальное заявление о фирменном программном обеспечении адаптивного круиз-контроля Tesla. К сожалению, это произошло после серии аварий. Но теперь у Теслы действительно проблемы с федералами.

Весь ассортимент моделей бренда подлежит консультации

Так что же именно привело федералов к Tesla Autopilot? К сожалению, было несколько несчастных случаев, 11, если быть точнымчто NHSTA говорит, что Тесла был вовлечен и службы экстренного реагирования, пока Тесла Автопилот был активен. Очевидно, что NHSTA не одобряет столкновение сотрудников экстренных служб с «беспилотными» автомобилями до тех пор, пока для них не будет юридически целесообразно этого не делать. Впрочем, когда вам удобно.

Такое поведение привлекло внимание NHTSA. К сожалению, онРасследование касается всего модельного ряда Tesla, около 765,000 автомобилей.. Однако важно отметить, что Тесла и, соответственно, Илон Маск невиновны, пока их вина не будет доказана. Расследование продолжается, но Национальный совет по безопасности на транспорте (NTSB) рекомендовал NHTSA потребовать от Tesla ограничить области, в которых можно использовать Tesla Autopilot.

Tesla Autopilot явно не заменит реальных людей

NTSB уже стрелял в Tesla, обвиняя компанию во многих других авариях. Однако следует отметить, что здесь виноват не только автопилот Теслы. Люди не очень ответственно относятся к полуавтономному ПО. Они сделали все от сна до . Однако в большинстве случаев эти люди наказываются. NHTSA теперь пытается определить, разделяет ли Тесла вину и в этом.

Так или иначе, они должны. Вокруг моделей Tesla сложилась культура, которая стала довольно вредной. И дело в том, что автомобили продвигаются как нечто из iRobot или Bladerunner, хотя на самом деле они таковыми не являются. Полное самостоятельное вождение Tesla — это не полное самостоятельное вождение. В лучшем случае это бета-версия. Откровенно говоря, люди недостаточно ответственны за беспилотные автомобили. И это то, что, кажется, подстегнуло расследование NHTSA.

Как бренд может оправиться от этого?

Совершенно очевидно, что у Tesla сейчас проблемы с имиджем. Tesla должна начать с некоторой прозрачности. Изменение некоторых имен было бы хорошим началом. «Автопилот Тесла» несколько вводит в заблуждение. Программное обеспечение адаптивного круиз-контроля GM «SuperCruise» не означает автономное вождение, в отличие от «Автопилота». Это, безусловно, было бы началом, но любые реальные изменения нужно будет увидеть в том, что говорит NHSTA.

********

Добавить комментарий