Nieuws

Verontrustend: Tesla rijdt “kindjes” meermaals omver tijdens zelfrijtest

tesla accident
Via The Dawn Project
Er rijzen opnieuw vragen over de veiligheid van zelfrijdende auto's nu blijkt dat een Tesla tijdens een zelfrijtest meermaals 'kindjes' omver heeft gereden.

De test was een initiatief van The Dawn Project, Tesla Takedown en ResistAustin, drie organisaties die relatief kritisch staan tegenover Tesla en diens FSD-software (Full Self-Driving). De test was ook van die aard dat het voor de software sowieso moeilijk was om er goed uit te komen, maar dat neemt niet weg dat er duidelijke pijnpunten blootgelegd werden.

Concreet werd voor de test in Austin (Texas, VS) een situatie gecreëerd waarbij een schoolbus aan de kant stond, klaar om schoolgaande kinderen op te laten stappen. In de Verenigde Staten ontplooien de kenmerkende gele schoolbussen dan stoptekens en rode knipperlichten, waardoor het voor ander verkeer verplicht is om te stoppen zodat kinderen veilig de bus op (of af) kunnen. Kinderen krijgen zo meteen ook de mogelijkheid om indien nodig veilig de straat over te steken.

Tesla negeert situatie, rijdt gewoon door

Uit de test blijkt dat de software van Tesla om te beginnen niet in staat is om de verkeerssituatie correct in te schatten. De auto herkent weliswaar obstakels, maar volgt de regels in verband met schoolbussen niet. De Tesla stopt dus niet en rijdt gewoon door, met ernstige gevolgen. In de test duikt er namelijk plots van achter een auto een ‘kind’ op dat de straat wil overlopen richting de bus, net op het moment dat de Tesla passeert. Die kan natuurlijk niet meer tijdig remmen en raakt de pop die een kind moet voorstellen.

Toegegeven: de Tesla lijkt wel degelijk een noodstop te maken, maar vervolgens rijdt de auto vaak gewoon weer verder. Het obstakel, met name het kind, wordt namelijk niet meer gedetecteerd en dus denkt de software dat er weer veilig verder gereden kan worden. Soms wordt het kind op die manier nog eens extra overreden ook.

In een video van de test is te zien hoe de Tesla dezelfde situatie verschillende keren op dezelfde manier aanpakt. In totaal wordt het kind 8 keer gegrepen, wat aantoont dat de FSD-software van Tesla simpelweg niet voorzien is op deze situatie, die zich in het echte leven nochtans kan voordoen.

Automatische piloot mét supervisie

Het grootste probleem is hier natuurlijk niet dat de Tesla niet tijdig meer kan stoppen eens het kind opduikt. Een menselijke bestuurder zou ook niet meer kunnen stoppen en ook andere zelfrijsoftware zou het vermoedelijk niet beter doen, toch niet eens de auto op dat punt aanbeland is. In dat opzicht is het dan ook eerder problematisch dat de situatie vanaf het begin al niet correct ingeschat werd. Had de software immers gewoon de regels in verband met schoolbussen gevolgd, dan was er geen probleem.

Een belangrijke kanttekening hier is ook wel dat het zelfrijsysteem van Tesla officieel door het leven gaat als ‘Full Self-Driving (Supervised)’. Het gaat dus om een zelfrijmodus die wel nog steeds de constante aandacht van een menselijke bestuurder vraagt, ook al is die niet actief aan het sturen. Tesla waarschuwt dat de bestuurder op elk moment moet kunnen ingrijpen. Worden die veiligheidsinstructies niet gevolgd, dan kan dat een dodelijke afloop hebben, wat in het geval van deze test wel duidelijk is.

Zelfrijdende Cybercab

In principe wordt er dus verondersteld dat een bestuurder in dit geval wel had kunnen ingrijpen door de Tesla manueel te laten stoppen bij het benaderen van de schoolbus. Critici wijzen er echter op dat veel Tesla-bestuurders helemaal niet meer zo aandachtig zijn wanneer de automatische piloot actief is. Bij het promoten van de zelfrijmodus laat Tesla vaak ook uitschijnen dat de auto alles echt alleen kan. Daarbij zou dus onvoldoende aandacht geschonken worden aan de risico’s en eigenaars krijgen het idee dat ze zelf rustig achterover kunnen leunen.

Ook doet de test vragen rijzen over de Cybercab-service die Tesla in principe deze maand nog officieel lanceert. Het gaat daarbij om Tesla-taxi’s die volledig autonoom rijden en dus enkel passagiers vervoeren. Als de zelfrijsoftware van die Cybercabs dezelfde tekortkomingen heeft als de FSD-software van Tesla, dan kan dat in de praktijk wel eens ernstige problemen opleveren.

De lancering van Cybercabs werd overigens al meermaals uitgesteld en recent liet topman Elon Musk weten dat nog verder uitstel mogelijk is, omdat het Tesla-team “paranoïde” is wat de veiligheid betreft. Men lijkt dus geen enkel risico te willen nemen. Dat er dan dergelijke filmpjes naar buiten komen, helpt natuurlijk niet echt.

In principe wordt de Cybercab-service op 22 juni gelanceerd, maar dat kan dus nog veranderen. Op 28 juni zou een eerste Tesla van de band rollen die vanuit de fabriek meteen zelfstandig naar bij de nieuwe eigenaar thuis rijdt. Eigenaars van een Tesla zouden hun auto ook beschikbaar kunnen stellen om mee te draaien in het Cybercab-systeem.

Uitgelicht artikel Cybertruck Tesla trekt stekker uit extra batterij voor Cybertruck
Connected Carelon musktesla

Gerelateerde artikelen

Volg ons

Exclusief: ruim 40% korting op de SwannBuddy4K

Exclusief: ruim 40% korting op de SwannBuddy4K

👉 Bestel nu