Собственик на Tesla твърди, че колата му се е опитала да го вкара в езеро, докато е използвал най-новия софтуер на автомобилния производител „Full Self-Driving“. Инцидентът, заснет на видео и публикуван в социалните медии, стана вирусен с над 1 милион гледания, добавяйки се към нарастващия списък с опасни случаи на FSD, които повдигат сериозни въпроси относно готовността на системата.
Даниел Милиган публикува видеото в X в събота, като тагна както Tesla, така и Ашок Елусвами, ръководител на Autopilot AI в Tesla, и написа: „Моята Tesla се опита да ме вкара в езеро днес!“ Превозното средство работеше с FSD версия 14.2.2.4 (компилация 2025.45.9.1), една от последните актуализации, които Tesla пусна в автопарка си. Публикацията събра над 1,2 милиона гледания, 9000 харесвания и стотици повторни публикации в рамките на часове:
Още един опасен инцидент с FSD в дълга поредица
Инцидентът в езерото е последният от поредица от тревожни повреди на „напълно автономните системи за шофиране“, които Electrek проследява от години. През май 2025 г. Tesla с FSD внезапно излезе от пътя и обърна кола с главата надолу при катастрофа, която шофьорът каза, че не е могъл да предотврати. През декември шофьор на Tesla в Китай се блъсна челно в друго превозно средство по време на стрийминг на живо, демонстриращ функции на FSD, като системата инициира смяна на лентата в насрещно движение.
Двама инфлуенсъри на Tesla, опитващи се да осъществят силно рекламираното шофиране от крайбрежие до крайбрежие на FSD на Илон Мъск, дори не успяха да напуснат Калифорния, преди да се блъснат в пътни отломки.
Версията FSD v14.2.2.4, свързана с инцидента в езерото, беше пусната в края на януари 2026 г. Tesla не публикува нови бележки за изданието за тази версия в сравнение с предишната v14.2.2.3, характеризирайки я като изпипана и фино настроена. Серията v14.2 подобри енкодера за невронна мрежа на Tesla за функции с по-висока резолюция и добави обработка за превозни средства за спешна помощ, но опасните крайни случаи очевидно продължават.
Под регулаторен контрол
Инцидентът се случва, когато системата FSD на Tesla е изправена пред нарастващ регулаторен натиск. През октомври 2025 г. NHTSA започна широкомащабно разследване на 2,88 милиона автомобила Tesla, след като свърза 58 инцидента с FSD, включително 14 катастрофи и 23 наранявания. Разследването се фокусира специално върху преминаването на червен светофар и шофирането в насрещни ленти на движение от FSD – вид фундаментални повреди, които не би трябвало да се случват в система, за която Tesla таксува 99 долара на месец.
NHTSA също така започна отделно разследване за неспособността на Tesla да докладва своевременно на регулаторните органи за катастрофи с Autopilot и FSD. Има над 50 смъртни случая, свързани с катастрофи, включващи системите за подпомагане на водача на Tesla (Autopilot и FSD).
Междувременно, „неконтролираната“ програма Robotaxi на Tesla в Остин доказа, че е всичко друго, но не и неконтролирана. Днес публикувахме актуализация на състоянието на програмата Robotaxi 8 месеца след старта ѝ.
electrek.co