Robots doen het zelf

Neem twee robots, geef ze een dosis fuzzy Logic en laat ze samen een taak uitvoeren. Dat dat kan leiden tot succes is afgelopen zomer gebleken. In Amerika (Cincenatti) hebben wetenschappers twee robots laten samen werken op basis van een vorm van Artificial Intelligence, Fuzzy Logic. 

Het doel van deze studie is om robots te laten samenwerken op basis van zo min mogelijk communicatie en het uit te laten voeren van een gezamenlijke taak. De taak was het verplaatsten van een virtuele bank door een virtuele ruimte. Het verplaatsen van zo’n groot object vraagt namelijk om nogal wat coördinatie tussen twee ‘personen.’ Daarnaast moet er ook inzicht zijn hoe een object door te ruimte moet bewegen om van A naar B te komen. 

Fuzzy logic

Fuzzy logic is overigens geen nieuwe programmeertechniek, maar bestaat al geruime tijd. Beide robots zijn geprogrammeerd door middel van fuzzy Logic. Wie denkt aan een standaard PLC denkt al snel in volgorde en bepaalde afhankelijkheden die opvolgen in de software, als dit dan dat. (Binaire logica, aan of uit). In fuzzy Logic kan het ook ergens tussenin zitten. Half aan of half uit. Binnen de meet- en regeltechniek wordt dit gebruikt.

Samenwerking tussen mens & machine, geregeld in de verordening Machines

Artificial Intelligence en de nieuwe verordening

Dit voorbeeld klinkt misschien niet heel spannend, maar dit komt wel dicht tegen AI en tegen de nieuw ondergebrachte eisen in de Machineverordening[1]. Twee robots die zelfstandig opereren in een vrije ruimte klinkt als twee ‘cobots’. Dat laat zien dat de verordening noodzakelijk is om in te spelen in deze aanpassende en vooruitstrevende markt. In bijlage III (Essentiële Veiligheids- en Gezondheidseisen), specifiek in artikel 1.1.6 (Ergonomie) zijn nu eisen opgenomen om het gebied van AI in te kaderen. Dit specifiek aangebrachte deel gaat in op de interactie tussen mens en robot en het ontwikkelen van het brein van de robot. Dit komt neer op dat de ontwikkeling van het brein niet in mag gaan tegen de veiligheid van de robot in zijn omgeving. 

EVGE-eisen

Naast artikel 1.1.6 zijn ook de volgende artikelen van belang op dit gebied:

  • 1.2.1: Besturing; AI mag geen invloed hebben op de veilige werking van het systeem
  • 1.3.7: Fysieke interactie met de robot, (het samenwerken)
  • 1.1.9: Cybersecurity; Ongewenste gebruikers mogen geen aanpassingen in het systeem kunnen doen

Besturing

In 1.2.1 (besturing) wordt vanuit de veiligheidsbesturing een belangrijk statement gemaakt dat de ‘grenzen’ niet overschreden mogen worden door de besturing. Dit hangt natuurlijk weer samen met 1.1.6, de ontwikkeling van het brein en het kader waarbinnen de robot mag opereren. Wanneer een robot zelflerend is, mogen de veilige grenzen niet te buiten worden gegaan. Eigenlijk een logisch vervolg. Dit kan echter wel verder gaan als in eerste instantie bedacht. Stel een Cobot werkt samen met een persoon aan de assemblage van een product. Hiervoor legt de Cobot een bepaald gedefinieerd pad af met een vastgestelde snelheid. Als de Cobot nu zou kunnen optimaliseren en zou ‘denken’ dat een ander pad sneller zou zijn, of bepaalde snelheden anders zouden kunnen kan dat in tegenspraak komen met bijvoorbeeld het veilige werkgebied (ter hoogte van het hoofd), of kunnen snelheden zo hoog worden dat deze niet meer acceptabel zijn. Uiteraard zijn er grenzen aan maximale snelheden te verbinden en kan een werkgebied worden vastgesteld, maar bij een Cobot is het werkgebied ook het gebied waarin een mens bezig is. 

De laatste paragraaf van 1.2.1 gaat in op autonoom werkende ‘machines’ waarbij mogelijke commando’s van buiten af (bijvoorbeeld van een bedienstation) ook niet die invloed mogen hebben om grenzen te overschrijden.

Samenwerken met de cobot

In artikel 1.3.7 is uiteindelijk de basis van samenwerken met cobot’s toegevoegd. Hierin wordt gesteld dat risico’s waarbij mensen en robots samenwerken in (a) dezelfde ruimte zonder directe interactie, of (b) directe mens-machine interactie niet mogen voorkomen. Dat hangt samen met de veilige gebieden waarin de robot beweegt, de gemaximaliseerde snelheden en krachten. Maar ook belangrijk is dat een robot kan laten ‘zien’ wat of waar hij naar toe beweegt. (Als het ware contact tussen mens en machine). Een mooi voorbeeld hiervan is de robot ‘Baxter’ (Rethink Robotics). Deze robot heeft een display met daarop ‘ogen’ die bewegen in de richting waarin de robot gaat bewegen. Zo geeft de robot aan wat de gebruiker kan verwachten. 

Hacken

De communicatie tussen twee cobots en het mogelijke gevaar op ‘hacken’ wordt in 1.1.9 afgedekt. Een systeem mag niet gevoelig zijn voor  ongewenste toegang tot, en aanpassen van parameters van buitenaf. Ofwel Cybersecurity wordt nu in eisen vastgelegd. 

Verordening is op tijd?

Een relatief simpel voorbeeld laat zien dat de vereisten die nu omschreven zijn in de verordening helemaal zo gek nog niet zijn. En mogelijk al sneller noodzakelijk worden dan dat er nu gedacht zou worden. Misschien is het dan ook al verstandig om deze eisen nu al mee te nemen (en er in ieder geval over na te denken) in het ontwerp. Dan gaat het niet alleen over een robot of een Cobot maar ook zeker voor machines en de koppeling met het internet. 

De bovengenoemde onderdelen uit de essentiële veiligheids- en gezondheidseisen staan voor een groot deel in relatie met elkaar en moeten bij ontwikkelingen vrijwel allemaal worden meegenomen. Maakt dat het lastiger? Op zich vallen de eisen mee, maar met name de uitdaging zit in de ontwikkeling van AI en veiligheid. Welke invloed mag een systeem hebben? In hoeverre kunnen standaard onderdelen die zelflerend  zijn ook effect hebben op mogelijk veiligheidsgerelateerde onderdelen. De toekomst zal het leren. 


[1] Alle referenties 1.2.3 in dit artikel verwijzen naar de overeenkomstige bepalingen in bijlage 3 van de concept machineverordening (Proposal for a regulation on machinery products) d.d. 21-04-2021.

Verschenen in NEN Industrie & Veiligheid, Q3/2021

© 2025 - Alle rechten voorbehouden - d-sc.nl

Website laten maken? SiteToGo.nl