Als het AI-systeem op die lijst staat, wordt het in principe aangemerkt als hoog risico.
Maar voordat die conclusie wordt getrokken, moet eerst worden gekeken of het systeem een significant risico op schade veroorzaakt voor de gezondheid, veiligheid of grondrechten van natuurlijke personen. Als dit niet het geval is, zijn de verplichtingen voor een hoog risico AI niet van toepassing. Dit staat in artikel 6 lid 3 van de verordening.
In de volgende situaties is sprake van de uitzondering:
Allereerst kan een AI-systeem puur een beperkte procedurele taak uitvoeren, zoals het ordenen van een vragenlijst of het herkennen van dubbele inzendingen.
Ook kan de AI uitsluitend bedoeld zijn om het resultaat van eerder menselijk werk te verbeteren, bijvoorbeeld door aantekeningen op te werken tot een formele brief of de leesbaarheid van een tekst te verhogen.
Verder geldt de uitzondering wanneer de AI alleen afwijkingen in beslispatronen signaleert, zonder de menselijke beoordeling daadwerkelijk te vervangen of over te nemen, bijvoorbeeld door te melden dat een beslissing afwijkt van vergelijkbare eerdere gevallen.
Tot slot kan een AI louter een voorbereidende taak vervullen, zoals het analyseren of vertalen van teksten, het opschonen van invoer of het doen van tekstsuggesties bij het schrijven van een besluit.
In al deze gevallen is het AI-systeem te beschouwen als een ondersteunend of voorbereidend hulpmiddel, zonder dat het de kern van de besluitvorming overneemt. Daarom wordt het in principe niet als hoog risico aangemerkt.
Ja, de AI is enkel een ondersteunend of voorbereidend hulpmiddel
Nee, de AI is meer dan een ondersteunend of voorbereidend hulpmiddel