Logo
  • Opinie
  • 28 juli 2016

Wat als robots iets kapot maken tijdens het onderhoud?

Stel dat je een robot inzet om onderhoud te plegen aan vastgoed of gebouw gebonden installaties, maar de robot maakt wat stuk tijdens zijn werkzaamheden. Wie is er dan verantwoordelijk? Het is een vraag die rijst, nu robots steeds vaker professioneel worden ingezet. Waar het debat vooralsnog vaak ging over de gevaren van kunstmatige intelligentie en daardoor hypothetisch en speculatief bleef, richt het gesprek zich nu steeds meer op de concrete risico’s gerelateerd aan de inzet van robots. Wie is aansprakelijk wanneer een robot iets stuk maakt tijdens het uitvoeren van zijn taak?

De mogelijkheden en risico’s van onderhoud door robots
In een vorige blog schreef ik dat het inzetten van robots, om ons te assisteren bij het uitvoeren van complexe taken, steeds dichterbij komt. Met het inzetten van sensoren, robotica en simulaties voor inspecties, reparaties en groot onderhoud kan immers veel geld worden bespaard. Het is dus niet meer de vraag of het gaat gebeuren, maar wanneer het gebeurt. Dit maakt dat veel organisaties kijken naar de concrete toepassingen van robots en de bijbehorende mogelijkheden én gevaren.

Zelfs Google mengt zich in deze discussie en zwengelt de discussie aan met een schoonmaakrobot als voorbeeld. In de paper 'Concrete Problems in AI Safety' brengt het onderzoeksteam van Google vijf praktische problemen in kaart:

  1. Wat als een schoonmaakrobot wel zijn taak uitvoert, maar daarbij bijvoorbeeld een vaas omstoot?
  2. Wat als een robot het krijgen van een beloning verkiest boven het uitvoeren van zijn taak, door bijvoorbeeld een hoopje afval niet op te ruimen, maar te bedekken?
  3. Wat als een robot herhaaldelijk om dezelfde instructies blijft vragen en zijn taken niet aanpast op basis van aanwijzingen van de mens?
  4. Wat als robots niet voorzichtig genoeg zijn en ze bijvoorbeeld een natte dweil in het stopcontact duwen?
  5. Wat als robots zich niet aanpassen aan de omgeving als deze net wat anders is dan de omgeving waar ze voor zijn getraind?

Wie is er verantwoordelijk?
Hoe meer taken robots kunnen uitvoeren, hoe meer dit soort vragen gaat spelen. Daarbij gaan robots steeds autonomer te werk en dat brengt weer implicaties met zich mee op het gebied van rechtsgeldige verantwoordelijkheid. Op dit moment is het namelijk bij wet geregeld dat alleen een persoon strafbare feiten kan plegen. In het debat over zelfrijdende auto’s lijkt de uitkomst te zijn dat de aansprakelijkheid ook bij de eigenaar of bestuurder kan worden gelegd, net zoals dat in het geval van schade door bijvoorbeeld dieren kan. Wat betekent dit voor de robots die onderhoud plegen of schoonmaken?

Het is niet ondenkbaar dat robots straks keuzes moeten maken. Kan een robot een inschatting maken van de risico’s en daar een oordeel over vellen? Is het breken van een vaas bijvoorbeeld gelegitimeerd als dat plekje dan wel goed wordt schoongemaakt? En wat als lichamelijke schade wordt toegebracht aan een mens?

In mijn beleving kan een menselijk oog dit soort oordelen veel beter vellen dan een robot. Ik denk dat we daarom naar een situatie toe moeten waarin robots bij dergelijke conflictsituaties de hulp inschakelen van een mens om een oordeel te vellen. Dit zorgt er dan meteen voor dat de mens aansprakelijk wordt na het nemen van een beslissing. Dat is een praktische oplossing voor een praktisch probleem; de volledig autonome robot is er namelijk nog lang niet en dus is het ook minder noodzakelijk om daar nu al een oplossing voor te hebben.

Producttips