0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Очередной водитель Tesla поплатился за пользование автопилотом

Автопилот под следствием: компании Tesla грозит отзыв 765 тысяч электромобилей

Власти США, наконец, решили провести полномасштабное расследование аварий с участием электромобилей Tesla, находившихся в режиме автопилота.

Tesla предложила своим клиентам так называемый автопилот в 2014 году, а в мае 2016 года в штате Флорида случилось первое смертельное ДТП с его участием: водитель Tesla Model S активировал программу и отвлёкся от дороги, автопилот не распознал пересекавшую дорогу фуру и направил электромобиль прямо под неё. В марте 2019 года в том же штате произошла ещё одна точно такая же авария, в которой погиб водитель Tesla Model 3. После этого американский Национальный совет по безопасности на транспорте (NTSB) забил тревогу и обвинил Национальное управление безопасностью дорожного движения (NHTSA) — структуру Минтранса США — в том, что оно не уделяет достаточного внимания самоуправляемым автомобилям, число которых на дорогах растёт, в основном стараниями компании Tesla.

Бдительный NTSB не обладает законодательными и регулирующими полномочиями, а чиновники из NHTSA, действительно, долгое время смотрели сквозь пальцы на очевидные прорехи в законодательном регулировании автопилота. Как сообщает газета The Detroit News, сейчас NHTSA известно о 25 авариях с участием автопилота Tesla, в которых погибли 10 человек, но ведомство никак на них системно не отреагировало — не было ни предписаний ограничить работу автопилота на электромобилях Tesla, ни законодательных инициатив, которые регулировали бы работу подобных систем на машинах других производителей.

Статья в тему:  Действительно крутящий момент родстера Tesla составляет 10000 Нм

Теперь же под давлением администрации президента США Джозефа Байдена, который не сильно благоволит компании Tesla (Илона Маска не пригласили на недавнюю отраслевую встречу по поводу квот на продажи электромобилей), NHTSA зашевелилось и объявило о начале комплексной проверки безопасности автопилота Tesla, которая затронет 765 тысяч машин (Model S, Model X, Model 3 и Model Y), то есть все Теслы, реализованные в США с момента релиза первой версии программы. При этом расследоваться будут не все аварии, а только те, в которых самоуправляемые электромобили врезались в машины экстренных служб — таких случаев зафиксировано 11, в них травмы разной степени тяжести получили 17 человек и один человек погиб. В этот «куст» попала и авария 2019 года в штате Коннектикут, о которой рассказывали Kolesa.ru: тогда, напомним, Tesla Model 3 врезалась в стоящий на дороге патрульный Ford Taurus со включёнными проблесковыми маячками.

По итогам расследования, которое может занять год и даже больше, NHTSA может установить правила, чётко регулирующие/ограничивающие область применения автопилота, и ужесточить контроль вовлечённости водителя, то есть сделать так, чтобы автопилот не работал, если водитель не следит за дорогой. Также по итогам расследования NHTSA может обязать Tesla провести отзыв всех машин с автопилотом для их перекалиборовки. Не исключён и вариант, что никаких последствий у расследования не будет и чиновники отделаются формулировкой в духе «дело ясное, что дело тёмное».

Между тем в октябре прошлого года Tesla запустила в США массовое потребительское бета-тестирование программы Full Self-Driving (FSD), то есть автопилота нового поколения, который позволяет водителю на протяжении всей поездки не касаться руля и педалей. С точки зрения функционала FSD можно назвать автопилотом 4 уровня по классификации SAE, но с юридической точки зрения FSD, как и система прошлого поколения, — автопилот 2 уровня, при котором вся ответственность за безопасность на дороге лежит на водителе. Шагнуть выше 2 уровня и перенести ответственность с человека на машину не позволяет законодательство, о чём мы много раз рассказывали, в том числе на совсем свежем примере краха беспилотного проекта Daimler и Bosch.

Статья в тему:  Новая модель 2016 Tesla Model X: Начало продаж осенью 2015 года

В 2020 году Euro NCAP в рамках большой сессии испытаний систем автономного вождения на десяти новых автомобилях раскритиковал Tesla Model 3 за использование слова «автопилот» в ассистирующей, по сути, программе и за её неадекватную реакцию на попытку водителя объехать внезапно возникшее на дороге препятствие.

Несмотря на сгущающиеся вокруг автопилота тучи, Tesla продолжает «допиливать» FSD: в мае компания объявила, что отказывается от радаров и делает ставку исключительно на камеры в сочетании с нейросетевым алгоритмом распознавания образов.

Очередной водитель Tesla поплатился за пользование автопилотом

Автопилот Tesla вновь не справился с управлением: на этот раз без жертв

Новые горячие кадры, на которых запечатлен момент аварии Tesla Model 3, не справившейся с управлением в автоматическом режиме. По крайней мере, в этом обвиняет американский электрокар его владелец. Он утверждает, что Tesla Model 3 не активировала систему автоматического аварийного торможения автомобиля (AEB) и не остановила автомобиль, даже когда последний сбил не менее 11 (!) строительных конусов на обочине шоссе. Хорошо хоть блоки были пластиковыми, а не бетонными!

Видео попало в Сеть неделю назад. Инцидент произошел в Северной Каролине и является очередным напоминанием о том, как важно всегда оставаться внимательным и сосредоточенным, даже когда вы управляете автомобилем с современными и технологичными полуавтономными функциями.

Подробнее о проблеме чрезмерного доверия водителей современным автомобилям и о возможных отрицательных последствиях вы можете прочитать в наших ранее опубликованных материалах:
Почему вам придется изучить техническую документацию к вашему премиальному автомобилю?
Автопилот Тесла не справился с управлением и убил водителя

Вкратце о том, что произошло на видеокадрах. Tesla движется по левой полосе автомагистрали, когда в поле зрения видеорегистратора появляется большой строительный знак, предупреждающий водителей, что полоса впереди закрыта. Водители, обратившие на это внимание, при виде мигающего знака сразу бы затормозили и перестроились в другую полосу. По какой-то причине водитель Model 3 этого не сделал.

Статья в тему:  Фейковый Tesla Model M, электробайк из будущего

Вместо этого он, вероятно, полагается на электронику автомобиля и не предпринимает никаких действий к избежанию аварийно-опасной ситуации. «Хорошее» место для экспериментов он выбрал – оживленную трассу.

В итоге автоматика не справляется со своими прямыми обязанностями и бьет со всей силы автомобиль о выставленные на полосе пластиковые ограничители. Очень повезло, что последние не были наполнены водой, а также что это были простые пластиковые конусы, а не бетонные ограждения.

Автомобиль сбил 11 барьерных конусов и только после этого остановился. Причем остановка в итоге была сделана самим водителем, а не «умной» электроникой, которая полностью себя дискредитировала в очередной раз.

«Автоматическое экстренное торможение тотально подвело меня в тот раз, когда мне это было нужно больше всего», – написал незадачливый автовладелец.

Кстати, в инструкции к полуавтоматизированному автомобилю любой производитель, включая Tesla, пишет, что вспомогательные системы всегда должны контролироваться водителем и что они являются лишь вспомогательными элементами автомобиля. На них полагаться нельзя! Впрочем, кто читает эти глупые инструкции.

Подтверждено: по вине «автопилота» Tesla погибло уже четыре человека

Как стало известно из нового отчета Национального совета по безопасности транспорта США, седан Tesla Model 3, который в марте врезался в грузовик на шоссе Флориды и убил своего водителя, действовал с активной функцией автопилота. Этот водитель стал по меньшей мере четвертым погибшим в аварии, связанной с функцией полуавтономного вождения Tesla. Что поражает в катастрофе от 1 марта, так это то, что детали аварии почти идентичны деталям первого публичного сообщения о смертельной аварии автопилота в мае 2016 года.

В каждом случае Tesla на автопилоте сталкивается с грузовиком, пересекающим путь, и убивает водителя.

Статья в тему:  Полет родстера Tesla можно отследить при помощи этого сайта

Жертвы автопилота Tesla Model 3

CEO компании Илон Маск похвастался способностями самоуправления своих автомобилей и пообещал, что в следующем году они станут полностью автономными. Но критики говорят, что система автопилота — которая требует, чтобы водители были начеку и готовы взять на себя управление автомобилем — работает недостаточно хорошо, чтобы держать водителей в узде, и что Tesla выдает систему как более способную, чем она есть на самом деле. Новая авария ставит под сомнение то, насколько хорошо Tesla отреагировала на эту критику, учитывая ее активное продвижение более амбициозных технологий.

В мартовской аварии красная Tesla Model 3 ехала на юг по правой полосе государственного шоссе 441 в Делрей-Бич, примерно в 110 км к северу от Майами. Грузовик выехал с частной дороги на правой стороне шоссе, намереваясь повернуть налево и направиться на север. В отчете говорится, что грузовик замедлил движение, пересекая полосу, «заблокировав путь Tesla».

Система Autopilot на Model 3 включилась примерно за 10 секунд до аварии и автомобиль не видел рук водителя на руле в течение восьми секунд, непосредственно предшествующих удару. Представитель Tesla это подтверждает. Автомобиль врезался в трейлер на скорости 110 км/ч (при ограничении скорости в 90 км/ч), не пытаясь осуществить никаких маневров с целью уклонения. Автомобиль проехал под грузовиком, оторвав крышу и убив водителя Джереми Берен Бэннера, возрастом 50 лет. Водитель грузовика не пострадал.

В отчете не сообщается, как далеко находилась Tesla, когда грузовик выехал на дорогу, и не отмечаются погодные условия, которые могли бы повлиять на способность автомобиля затормозить. Поэтому неясно, смог бы водитель, не использующий автопилот, остановиться безопасно. Грубая математика подсказывает, что водителю Model 3 потребовалось бы несколько секунд, чтобы оценить обстановку и избежать аварии. На заданной скорости автомобиль проезжает 30 метров в секунду. Тормозной путь Model 3 на скорости 100 км/ч составляет около 40 метров. Автомобиль мог остановиться за 75 метров. Добавим 1,5 секунды на действия водителя по торможению и, похоже, трех секунд вполне хватило бы.

Статья в тему:  Дизайнеры представили, как могли бы выглядеть трактор, мотоцикл, автобус и самолет от Tesla

7 мая 2016 года 40-летний Джош Браун погиб при очень похожих обстоятельствах. Его Model S работала на автопилоте, когда он ехал на север по шоссе 27А в северной Флориде. Навстречу выехал грузовик. Tesla не остановила движение и врезалась на скорости 125 км/ч (при ограничении в 110 км/ч), прошла под грузовиком, сорвала крышу и убила Брауна. Затем машина проехала еще 100 метров, достаточно сильно ударилась о столб и через 15 метров остановилась. Водитель грузовика не пострадал.

Тогда стало очевидно, что водитель грузовика должен был уступить Tesla, а Браун был невнимательным. Но некоторая часть вины возлагается и на Tesla, которая позволяла водителю чрезмерно полагаться на систему автоматизации в течение длительного периода.

После смерти Брауна Tesla сократила время, в течение которого водитель может не касаться руля, прежде чем система выдаст звуковые и визуальные предупреждения. Сменила несколько итераций аппаратного и программного обеспечения. Но обстоятельства аварии указывают на то, что при движении на высокой скорости система по-прежнему не способна обнаруживать некоторые стационарные объекты или объекты, движущиеся перпендикулярно автомобилю. Вероятно, по этой же причине по крайней мере три Tesla врезались в стоящие пожарные машины в 2018 году (без серьезных травм).

Model 3, которая попала в последнюю аварию, была оснащена камерами, которые должны были, теоретически, обнаружить грузовик, пересекающий путь машины. Tesla не ответила на запрос Wired о том, как система использует радар и камеры или какие шаги были предприняты во избежание подобного рода аварий.

В то же время Tesla оптимистично относится к возможностям компьютерного зрения на базе камеры, которые должны позволить «полное самостоятельное вождение», по мнению Маска, без необходимости человеческого наблюдения. Еще в прошлом месяце руководитель технического отдела Tesla Autopulot Андрей Карпати заявил, что Tesla считает, что может использовать методы машинного обучения и камеры, чтобы сделать свои автомобили первоклассными водителями. Маск пошел еще дальше и заявил: «Я вполне уверенно предсказывают появление автономных роботакси у Tesla в следующем году».

Статья в тему:  Tesla Model 3 уже собрала более 250 тыс. предзаказов

А как думаете вы, получится у Tesla реализовать свое обещание? Расскажите свое мнение в нашем чате в Телеграме.

Полиция арестовала водителя Tesla, ехавшего на заднем пассажирском сиденье

реклама

Автомобили Tesla довольно часто мелькают в новостных лентах. Нередко причиной тому становятся трагические события с их участием. Конечно, количество ДТП с участием «классических» автомобилей несравнимо выше, но электромобили Tesla приковывают к себе особое внимание из-за безответственного использования водителями так называемого «автопилота». Сама компания не устает напоминать о необходимости строго соблюдения правил при использовании автоматизированной системы управления, но владельцы Tesla очень хотят почувствовать себя в технологическом будущем и всячески пренебрегают правилами при использовании своих «умных» автомобилей. Самой компании Tesla пока что удаётся выходить «сухой из воды» после каждого очередного сообщения о трагедии с участием их продукта.

На днях Associated Press сообщила о вопиющем случае управления электроавтомобилем, произведенным компанией Илона Маска. В понедельник 10 мая в службу экстренной помощи поступило сразу несколько звонков с сообщениями о том, что на автомагистрали №80, по мосту Сан-Франциско-Окленд-Бэй движется автомобиль Tesla Model 3, на водительском сиденье которого никого нет, а единственный присутствующий в салоне автомобиля человек сидит на заднем пассажирском сиденье. Офицер Калифорнийского дорожного патруля догнал указанное транспортное средство на своём служебном мотоцикле и, увидев на заднем сиденье одиноко пассажира, принял меры к остановке электромобиля. До того, как Tesla Model 3 полностью остановилась, пассажир успел перебраться на водительское сиденье. Но это не спасло его от ареста. Водителем оказался 25-летний Param Sharma. Ему было предъявлено обвинение в неосторожном вождении и неподчинению требованию офицера полиции о прекращении движения. На данный момент в ходе расследования не установлено, был ли Param Sharma участником программы тестирования автопилота. Сама компания Tesla пока что никак не прокомментировала инцидент.

Статья в тему:  Блогер перехитрил автопилот Tesla, выйдя на ходу из машины

реклама

В интервью Associated Press Param Sharma сказал, что не сделал ничего плохого и продолжит ездить на заднем сиденье. С его слов, Илон Маск хочет, чтобы он продолжал так делать. Также Sharma сообщил, что «автопилот» Tesla буквально создан для езды на заднем сиденье и там он чувствует себя в полной безопасности. С его слов, он доверяет «автопилоту» больше, чем всем остальным участникам дорожного движения. Также он искренне не понимает, почему ему пришлось провести ночь в тюрьме. В конце интервью он поведал, что таким способом он проехал уже более 40000 миль.

В инструкции по управлению автомобилями Tesla указано, что при задействовании «автопилота» водитель обязан иметь возможность в любой момент взять управление на себя. Это значит, что руки водителя должны постоянно находиться на руле. Последние модификации электромобилей Tesla снабжены камерами, отслеживающими поведение водителя и если руки водителя будут отсутствовать на рулевом колесе, то система сначала выдаст предупреждение, а потом остановит автомобиль. К сожалению, многие критики говорят, что систему легко обмануть. Ранее представитель Tesla сообщил калифорнийскому государственному департаменту транспортных средств, что «Full Self-Driving» — это система помощи водителю, которая требует наблюдения со стороны человека. Компания не сообщает станет ли «автопилот» полностью автономной системой в ближайшем будущем. В конечном итоге, как критики, так и сторонники продукции компании Tesla приходят к единому мнению о том, что излишне полагаться на так называемый «автопилот» может быть крайне опасно.

Водителя Теслы оштрафовали за то что он чистил зубы во время движения на автопилоте

Автономное вождение, похоже, станет частью нашего автомобильного будущего. Хотя это звучит великолепно, но есть одна вещь, которую автопилот никогда не сможет предотвратить — глупость некоторых водителей.

Статья в тему:  Tesla Roadster, 10 000 Нм и 2,0 секунды до 100 км/ч

8 января 2020 года сержант Керри Шмидт из полиции провинции Онтарио написал в Твиттере, что обвинил 58-летнего мужчину в неосторожном вождении.

Офицер пояснил свое решение тем что водитель чистил зубы двумя руками, используя зубную нить, пока его Tesla model S в режиме автопилота ехала со скоростью 135 километров в час (84 мили в час).

К сожалению это не первый случай когда водитель Tesla перекладывает ответственность за вождение на автопилот.

Так в 2018 году полицейские в Калифорнии останавливали Tesla с заснувшим за рулем пьяным водителем.

Видео спящих за рулем машины все чаще появляется в интернете. В оправдание такой ситуации в Тесле заявляли что сон за рулем маловероятен, по причине встроенной системы оповещения водителя. Система мониторинга водителя основанная на необходимости держать руки за рулем все же не настолько хороша, как хочется компании. Ее легко обмануть, а последствия уже ложатся на водителя.

Однако стоит отметить что даже без обмана системы иногда происходят аварии.

Так относительно недавно на автомагистрали 95 в Норуолке, штат Коннектикут Tesla Model 3 находясь в режиме автопилота врезалась в полицейскую машину. Водитель доверился автопилоту, чтобы проверить состояние собаки на заднем сидении, и по его же словам не обращал внимание на дорогу.

Пока большинство случаев безответственного отношения к вождению обходятся без жертв, хотя печальная статистика все же есть.

В общей сложности во всем мире на данный момент погибло пять человек с участием автомобилей Tesla на автопилоте. Обнадеживает тот факт что в случае с чисткой зубов «двуручной нитью» водитель смотрел на дорогу, не отвлекаясь.

В компании Tesla заявили что несмотря на то что Tesla Autopilot хорошо работающая система, ее нужно использовать осторожно. В случае последующих проблем с неосторожным вождением при применении автопилота в компании не исключают что власти начнут вмешиваться, и заставят отключать систему, как это уже было в Европе.

Статья в тему:  Lada Niva 4x4 – «Роскосмос Edition», за 8 лет до полета Tesla в космос

P.S. — Странно, что при наличии камеры внутри салона некоторых Tesla, все еще не придумали новый метод оповещения водителей об соблюдении правил пользования автопилотом при нарушении.

Возможно при возможности принятия решения об остановке автопилотом водители соблюдали бы правила пользования системой лучше?

Ссылка на основную публикацию
Статьи c упоминанием слов:
Adblock
detector