Przejeżdżały na czerwonym świetle i wjeżdżały w przeciwnym kierunku, nieraz kolidując nawet z innymi pojazdami – to zasadnicze uchybienia działania autonomicznej jazdy Tesli. Zestawienie z 58 przypadków nieprawidłowego funkcjonowania dotarło do Narodowej Administracji Bezpieczeństwa Ruchu Drogowego, które poskutkowały kilkunastoma kolizjami i zapłonami. Czy Musk powinien już porzucić swoją wersję samosterującego auta?
Amerykańska Narodowa Administracja Bezpieczeństwa Ruchu Drogowego prowadzi już szereg dochodzeń w odniesieniu do Tesli. Czy w związku z tym Elon Musk będzie zmuszony zrezygnować z idei przekształcenia milionów Tesli, które napotykamy na naszych trasach, w w pełni samosterowne wozy za sprawą wyłącznie aktualizacji software?
– Kluczowe jest pytanie, czy ten program zadziała? – precyzuje Seth Goldstein, analityk Morningstar, który zalecał "sprzedaj" dla udziałów w CNN News.
Świat stał się ogromnym obszarem testowym dla wizji Elona dotyczącej całkowitej autonomicznej jazdy i to nie zdaje egzaminu – dodaje.
Ostatnie śledztwo zapoczątkowano w momencie, gdy majątek Muska, jako osoby najbogatszej na świecie, bazuje w dużej mierze na wycenie akcji Tesli. Co więcej, zadeklarował on inwestorom wprowadzenie setek tysięcy autonomicznych taksówek do miast w USA do końca przyszłego roku.
"Ciemność widzę, ciemność". Tesla bezradna podczas mgły?
Śledczy mają obecnie za zadanie przeanalizować 2,9 mln aut wyposażonych w technologię określoną jako "pełna autonomiczna jazda (FSD)". Samej nazwie zarzucono mylenie kierowców, gdy oddawali oni technologii kompletną kontrolę nad prowadzeniem pojazdu. Tesla sama w sobie argumentowała wówczas, iż zawsze informuje o tym, by człowiek za kierownicą w każdej chwili był gotowy do interwencji, gdyby coś przebiegało nieprawidłowo. Tym razem jednak okazało się, że nie tylko wozy popełniły zasadnicze pomyłki, ale też nie zaalarmowały kierowców przed niebezpieczeństwem.
Pozostałe dochodzenia tyczą się m.in.:
- jazdy we mgle oraz w innych okolicznościach ograniczających widoczność, kiedy to doszło do kilku wypadków (w tym śmiertelnie potrącono przechodnia). Te niedziałające systemy wsparcia kierowcy posiadało 2,4 mln Tesli;
- technologii "przywoływania" [po ang. "summon"], kiedy to prowadzący mogli dawać autom polecenia, by zajechały pod wskazany adres. W trakcie korzystania z tej funkcji doszło do paru kolizji;
- opóźnień przy zgłaszaniu przez Teslę wypadków (podmiot nie dotrzymywał terminów wymaganych ustawą).
Sąd przysięgłych orzekł ponadto, że Tesla po części bierze odpowiedzialność za tragiczny w skutkach wypadek na Florydzie w 2019 roku, w którym miał udział jej Autopilot. Koncern ma wypłacić ofiarom przeszło 240 mln dolarów. Spółka już zadeklarowała apelację od tej decyzji.
Tesla winna powrócić na tory
Menadżer finansowy Gerber, wieloletni inwestor Tesli, który był entuzjastą systemu wsparcia kierowcy, uważa, że sedno problemu spoczywa w nazwie. W pełni samosterujący system winien posiadać nie tylko odpowiedni system wizyjny, wykorzystujący kamery w pojazdach, lecz również czujniki radarowe i inne wyposażenie.
– Winni wziąć odpowiedzialność za coś, co nie działa tak, jak powinno. Elon powinien odłożyć na bok swoje ego, albo ktoś inny musi mu powiedzieć wprost: "Jeśli twoje wozy powodują kraksy, to być może winien wrócić na tory testowe i jeździć na nich tak długo, aż system w 100 procentach będzie działał tak, jak powinien – tłumaczy.
System FSD Tesli – o co w nim chodzi, a może jeździ?
Jest to oprogramowanie wspomagające kierowcę, jednak oczekuje on od niego pełnej uwagi. Nowa odsłona została przedstawiona w tym miesiącu i w ocenie twórców nie ma tak bardzo angażować prowadzącego.
Tesla zmaga się z silnym naciskiem ostatnio, ze względu na spadek liczby sprzedawanych pojazdów, co jest w powiązaniu z zaangażowaniem Trumpa w politykę USA i Europy (a konkretnie w prawicowe programy). W tym samym czasie konkurencyjni wytwórcy pojazdów elektrycznych, w tym chiński BYD, przejmują udziały w rynku, proponując tańsze i wysokiej jakości towary.
opr. aw