Autonoom-gate wordt erger

Door Tom in Nieuws, dinsdag 08 Mei 2018 13:05
Sensoren zagen voetganger wel maar systeem oordeelde dat het om een onschuldig voorwerp ging. uber zelfrijdende auto volvo xc90

Het dodelijke ongeval dat twee maanden geleden plaatsvond in de Amerikaanse staat Arizona is daadwerkelijk de fout van het systeem waarmee de wagen van liftbedrijf Uber autonoom kan rijden zonder dat de bestuurder iets hoeft te doen.

Dat zou blijken uit een intern onderzoek dat techwebsite The Information heeft ingezien. Het ongeval waarbij een vrouw, die met haar fiets aan de hand een weg overstak, frontaal geschept werd is op dashcam vastgelegd en ging viral. Het toonde namelijk twee grote problemen die er zijn met zelfrijdende auto's. 

De Volvo XC90, een hoge SUV, waarmee Uber een autonoom systeem aan het testen is reed namelijk volledig in op de vrouw zonder ook maar op enige manier in te grijpen. De bestuurder, die verplicht achter het stuur moet zitten om het systeem te laten werken, zat op zijn telefoon te turen en was helemaal niet bezig met wat er voor hem op de weg gebeurde. De auto rijdt toch? 

Het systeem is een interessant iets voor het bedrijf Uber. Ze werken namelijk als een soort taxi-dienst, waarbij je mensen in de buurt kunt vragen je op te pikken en ze dan een fooitje geeft. Door de chauffeurs uit deze som te halen zou Uber veel meer winst kunnen maken. Vandaar dat er nu plannen zijn om 24.000 zelfrijdende auto's in te gaan zetten om mensen van A naar B te brengen.

De vraag is nu dan ook bij wie de fout ligt. Ja, de bestuurder is enorm fout bezig maar als ook de auto - die behangen is met sensoren en hulpsystemen om alles wat er om de wagen heen gebeurd waar te nemen - op een overstekend persoon met een fiets niet ingrijpt dan is ook de auto enorm fout. De Amerikaanse politie ging ervan uit dat de auto daarom ook niets te verwijten viel. Dat systeem zit er toch niet voor niets op? Mis, blijkt nu dus uit het onderzoek dat Uber heeft gedaan. 

De vrouw werd namelijk wel degelijk gedetecteerd door de sensoren. Maar het systeem dat de auto aanstuurt deed niets met die informatie. Het systeem kan namelijk omgaan met zogenaamde valse positieven. Als een object geen schade aan je auto zou aanrichten bijvoorbeeld, zoals een plastic zak die voorbij dwarrelt, dan kan de auto gewoon door blijven rijden, vindt het systeem. Die afstelling was bij deze auto te scherp afgesteld. Waardoor er dus daadwerkelijk iemand is overleden door een fout van een machine.

In de staat Arizona waren de zelfrijdende Uber-auto's al verboden na het incident. Maar door de bevindingen die in dit onderzoek worden getrokken zou dat in andere staten ook zomaar kunnen gaan gebeuren. En terecht natuurlijk. Een systeem dat andere weggebruikers - zij het voetgangers of wellicht een motorrijder met een kleine motorfiets - wel ziet maar niet als gevaar voor de auto registreert is absoluut niet wenselijk. Dat er al langer problemen zijn met dit soort systemen en er dan toch een proef op straat wordt georganiseerd is een teken dat mensen niet leren van hun fouten. Jammer dat er blijkbaar altijd iemand om het leven moet komen voordat men inziet dat dingen eerst volledig doorontwikkeld moeten worden tot ze echt veilig zijn voor er een hippe proef gedaan kan worden in de praktijk.

 

Gerelateerde artikelen