Według pozwu cywilnego złożonego przeciw firmie Tesla, system Autopilot spowodował, iż samochód Model 3 nagle zjechał z autostrady na wschód od Los Angeles z prędkością 65 mil na godzinę, uderzył w palmę i stanął w płomieniach.
Wypadek. do którego doszło w 2019 roku, spowodował śmierć Micaha Lee i poważne obrażenia u dwóch jego pasażerów, w tym 8-letniego wówczas chłopca. W pozwie, złożonym przeciwko Tesli przez pasażerów i członków rodziny Lee, przedsiębiorstwo zostało oskarżona o to, iż wiedziała, iż Autopilot i inne systemy bezpieczeństwa były wadliwe, w momencie gdy sprzedawała samochód.
Tesla ma poważny problem
To nie jedyny proces przeciw Tesli, o którym z pewnością będzie głośno w najbliższym czasie. Na początku października sąd stanowy na Florydzie przyjrzy się dokładniej sprawie wypadku z 2019 roku, do którego doszło na północ od Miami. To właśnie wtedy Model 3 należący do Stephena Bannera wjechał pod przyczepę 18-kołowej ciężarówki, która wjechała na drogę, ścinając dach Tesli i zabijając kierowcę. Z pozwu, który złożyła żona Bannera, możemy dowiedzieć się, iż Autopilot nie hamował, nie kierował ani nie zrobił nic, aby uniknąć kolizji.
Przedstawiciele Tesli odmówili wzięcia odpowiedzialności za oba opisane powyżej wypadki, wskazali na błędy kierowców i powiedział, iż Autopilot jest bezpieczny, gdy jest monitorowany przez ludzi. Jak podkreślili, kierowcy muszą zwracać uwagę na drogę i trzymać ręce na kierownicy. „Obecnie na drogach nie ma samojezdnych samochodów” – stwierdzili.
Wiele wskazuje na to, iż oba postępowania ujawnią nowe dowody na to, co Musk i inni urzędnicy firmy wiedzieli o możliwościach Autopilota – i związanych z tym rozwiązaniem wszelkich możliwych niedociągnięciach. Z dokumentów, do jakich udało się dotrzeć adwokatom Bannera, wynika, iż to Elon Musk jest faktycznym liderem zespołu pracującym nad tym rozwiązaniem.
Autopilot? „Nie ma czegoś takiego”
Warto jednak przypomnieć, iż w kwietniu br. Tesla wygrała proces sądowy w Los Angeles, stosując strategię polegającą na informowaniu kierowców, iż jej technologia wymaga monitorowania przez człowieka, pomimo użytych nazw „Autopilot” i „Full Self-Driving”. Sprawa dotyczyła wypadku, w którym Model S skręcił w krawężnik i zranił kierowcę. Po ogłoszeniu werdyktu przysięgli powiedzieli, iż wierzą, iż Tesla ostrzegała kierowców o swoim systemie, a wypadek był efektem niedostatecznego skupienia kierowcy na wykonywanej czynności.