De Machinerichtlijn over 10 jaar
Update juli 2020
Eerder sprak ik over het bijhouden van de stand der techniek in de normen, dat geld natuurlijk ook voor de Machinerichtlijn. Kan de richtlijn de snelle veranderingen bijhouden? Als het al lastig is voor de normalisatie, hoe lastig is het dan voor het wetgevende kader?
Lastig? Of juist niet, het is immers het stellen van de kaders. De grenzen. Het lijkt simpel, maar waar ligt de grens. Wat is acceptabel en wat niet. Vooral nu de techniek zo snel verandert, is het een uitdaging om de wetgeving zo in te richten dat deze blijft passen bij de technologische vooruitgang? Een onderdeel wat momenteel ter discussie staat is het besturingstechnische vlak. Door de komst van Artificial Intelligence (AI) zal de wetgeving hier op in moeten gaan spelen.
Binnen onze huidige maatschappij is AI al in simpele vormen in ons dagelijks leven ingeburgerd. Virtuele assistenten op telefoons geven ons antwoord op vragen zoals; ‘hoe lang de rivier de Nijl is’ en ze helpen ons mee om het licht in huis in of uit te schakelen. Niet alleen telefoons bezitten de techniek maar het wordt ook doorgevoerd in luidsprekers, auto’s en in de zorg maar ook in de online vraag, de bekende vraag en antwoord (Q&A). Wat nu als de AI technieken ook in machines hun intrede doen? Machine learning is een variant van AI. De besturing wordt hierbij geleerd om te ‘kunnen leren’. Simpel gezegd, de machine wordt niet voorgeschreven om handelingen uit te voeren, maar leert door te doen. Alsof het menselijke hersenen zijn.
Kijkend naar de Machinerichtlijn staan er in Bijlage I (de essentiële veiligheids- en gezondheidseisen) onder andere de volgende punten;
- „een storing in de apparatuur of de programmatuur van het besturingssysteem niet tot een gevaarlijke situatie leidt”
- „fouten in de besturingslogica niet tot een gevaarlijke situatie leiden”
Deze punten zullen ook in die nieuwe systemen nog steeds van toepassing zijn en blijven, maar wat nu als die zelflerende systemen die fouten kunnen repareren? Moet de richtlijn daar op inspelen? Of moet dat worden voorkomen door vast te leggen dat dit niet mogelijk mag zijn?
De vraag die als eerste op zal komen is hoe de betrouwbaarheid van dergelijke systemen wordt bepaald en of deze onder een PLe of SIL 3 classificatie kunnen worden geschaard. Daar zal in eerste instantie voor een belangrijk deel terughoudend op worden gereageerd. De technieken zullen zich eerst moeten bewijzen bij de zogenaamde standaardbesturingen, voordat er vanuit veiligheid naar gekeken gaat en kan worden. Terugkijkend op de ontwikkeling van besturingssystemen voor machines en het voortkomen van veiligheidsbesturingen zit daar een tijdsvertraging in. Mogelijk gaan deze nieuwe ontwikkelingen sneller, maar dat is op dit moment koffiedik kijken.
Feit blijft wel dat we binnen de veiligheidstechniek hiermee te maken gaan krijgen. Het kader zal hiervoor moeten worden ingericht. Al zullen de eisen globaal zijn, uitbreiding van de Machinerichtlijn op deze aspecten is onontbeerlijk. Normen kunnen inspelen op de stand der techniek, terwijl de Machinerichtlijn deze technieken moet proberen in te passen en vooruit te kijken. Het kader moet uiteindelijk de grenzen geven en misschien komen de robot-wetten van Asimov toch nog in de wet terecht. Met als basis de ‘eerste wet: ‘Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.’’ Opmerking, zie Update rapportage Juni 2020
Gepubliceerd in NEN Industrie & Veiligheid, 04-2018
Update maart 2019: Roadmap bij CEN / CENELEC
Binnen de wereld van normalisatie wordt momenteel gewerkt aan adviezen en een mogelijke aanpak. Hiervoor worden in het komende jaar de doelen uitgezet en is het streven om in kwartaal 1, 2020 adviezen te kunnen geven over dit complexe onderwerp. Adviezen op zowel technisch als politiek vlak. Dus mogelijk ook richting de Machinerichtlijn,
Update: Rapportage vanuit de adviescommissie (CCMI/172) Juni 2020
Geen grote wijzigingen Machinerichtlijn
In juni 2020 is een informatief rapport vrijgegeven van de Adviescommissie Industriële Reconversie (CCMI), waarin aanbevelingen worden gedaan over de herziening van de Machinerichtlijn. Het interessante hierin te lezen aansluitend op het geschreven in 2018 in het grijze kader is dat de veranderingen niet zo groot zullen zijn.
Het adviesorgaan stelt namelijk dat de kaders zoals omschreven in de Machinerichtlijn afdoende ruimte bieden om ook nieuwe technieken binnen grenzen toe te passen. De huidige strategie van risicobeoordeling en reductie zoals in de Machinerichtlijn wordt gebruikt past prima binnen dit kader. Daarmee kunnen ook nieuwe technieken worden bewaakt en afgevangen.
….De verplichtingen van de fabrikant op het gebied van gezondheids- en veiligheidseisen van de richtlijn zijn toereikend voor in opkomst zijnde technologieën zoals zelflerende algoritmes en robotica die zijn ontworpen om te werken binnen veilige grenzen en vooraf vastgestelde operationele gebieden, aangezien deze het proces van risicobeoordeling en -reductie kunnen doorlopen voordat ze op de markt worden gebracht…
CCMI/172 – EESC-2020-00330-00-01-RI-TRA (EN), artikel 2.2, deels
Interessante bronnen:
- Essentiële V&G Eisen voor industriële machines uitgerust met Machine Learning, TNO, 14-09-2018
- Onderzoek naar robotisering en veiligheid machines werkvloer, Rendement.nl, 04-10-2018
- CEN-CENELEC Roadmap for AI Standardization; CENELEC.eu; 03-2019
- Revision of the Machinery Directive; EU 06-2020