Kunstmatige intelligentie (AI) biedt veel nieuwe kansen, maar op dit moment loopt Europa achter op dit gebied in vergelijking met de VS en China. De EU neemt om die reden allerlei initiatieven, waaronder het ontwikkelen van ethische richtlijnen, in een poging om op wereldniveau het voortouw te nemen. Hoe zien deze richtlijnen eruit? Wat gaat ermee gebeuren en gaan deze richtlijnen ervoor zorgen dat Europa de boot niet mist? Neth-ER zet het voor u op een rij!

Wint Europa met ethische richtlijnen de slag om AI?

Europa loopt achter

Kunstmatige intelligentie (AI) wordt gezien als een veelbelovende technologie. Daarom investeren veel landen nu in AI-onderzoek en willen ze het gebruik van AI stimuleren. De gedachte hierachter is dat zij die AI vroeg implementeren, wereldleider op dit gebied kunnen worden. Europa loopt hierin achter: weinig Europese bedrijven spelen op AI-gebied een belangrijke rol en in vergelijking met de VS of China hebben Europese bedrijven AI nog maar matig geïmplementeerd in hun bedrijfsvoering. Daarnaast zijn de private investeringen in AI in Europa lager (2,4-3,2 miljard euro per jaar) dan in China (6,5-9,7 miljard euro per jaar) en in Noord-Amerika (12,1-18,6 miljard euro per jaar).

Europa zet in op ethiek

Om het tij te keren presenteerde de Europese Commissie in april 2018 haar AI-strategie. Hierin benadrukt de Commissie dat Europa zich moet voorbereiden op de veranderingen en uitdagingen die deze nieuwe techniek met zich meebrengt. Mensen maken zich zorgen over hun baan en of die straks wordt overgenomen door een robot; over de veiligheid van hun gegevens; over machines die belangrijke beslissingen zullen nemen. Zolang deze zorgen bij de burger bestaan, zullen zij AI-systemen niet vertrouwen en niet gebruiken, zo redeneert de Commissie. Ethische richtlijnen moeten ervoor zorgen dat er betrouwbare AI wordt ontwikkeld, waarin de mens centraal staat. Doordat de Europese burger deze AI vertrouwt, zullen zij deze gaan gebruiken. Hierdoor krijgt het concurrentievermogen van Europa een impuls.

Daarnaast moeten de ethische kaders volgens de Commissie werken als een onderscheidend handelsmerk voor Europa en haar industrie; Europa kan zich op deze manier manifesteren als ontwikkelaar van vooruitstrevende en betrouwbare AI die aantrekkelijk is voor consumenten. Dit zou nadelig zijn voor AI-systemen van buiten Europa die niet aan de ethische richtlijnen voldoen, omdat Europese burgers en bedrijven minder geneigd zijn deze te gebruiken.

Het doel van de ethische richtlijnen is dus tweeledig: enerzijds moet het zorgen voor vertrouwen in en toenemend gebruik van AI in Europa en anderzijds moet het werken als een handelsmerk. Op internationaal niveau wil de Commissie de richtlijnen promoten en zo de standaard zetten. Het uiteindelijke doel is dat Europa kan concurreren met de VS en China op het vlak van AI. De Raad en het Parlement sluiten zich aan bij de ontwikkeling van een ethisch kader.

Ethische richtlijnen: zeven vereisten en een vragenlijst

Om de ontwikkeling van het ethische kader voor betrouwbare AI in gang te zetten, heeft de Commissie een High-Level Expert Group on Artificial Intelligence (AI HLEG) benoemd. Deze groep is samengesteld uit 52 experts vanuit verschillende hoeken van de samenleving: academici, mensen uit het bedrijfsleven en vertegenwoordigers van maatschappelijke organisaties. Zij hebben in april een voorstel voor richtlijnen voor AI gepresenteerd, nadat zij in december 2018 een conceptversie van deze richtlijnen presenteerden. Belanghebbenden hebben de mogelijkheid gekregen om feedback te geven op de conceptversie. De uiteindelijke versie van de richtlijnen bevatten zeven vereisten.

  1. Invloed en toezicht door mensen: de menselijke autonomie mag niet worden beperkt of misbruikt.
  2. Robuustheid en veiligheid: de gebruikte algoritmen moeten veilig, betrouwbaar en robuust zijn. Eventuele fouten in AI-systemen moeten worden achterhaald en hersteld kunnen worden.
  3. Privacy en data-governance: burgers moeten controle hebben over hun eigen gegevens en deze gegevens mogen niet worden misbruikt.
  4. Transparantie: beslissingen van een AI-systeem moeten herleidbaar en uitlegbaar zijn.
  5. Diversiteit, non-discriminatie en billijkheid: voorkomen moet worden dat de algoritmes vooroordelen zullen aanleren. Indien dit toch gebeurt moet het algoritme veranderd kunnen worden.
  6. Maatschappelijk en ecologische welzijn: AI-systemen moeten bijdragen aan het maatschappelijke en ecologisch welzijn.
  7. Verantwoordingsplicht: duidelijk moet zijn wie verantwoordelijk is voor AI-systemen en zijn resultaten.

Welbeschouwd is het gebruiken van ethische richtlijnen bij de ontwikkeling van AI-systemen niet iets nieuws: grote bedrijven als Google en Microsoft hebben al hun eigen ethische richtlijnen ontwikkeld. Deze zijn inhoudelijk vergelijkbaar met de bovenstaande richtlijnen. Volgens de AI HLEG is het echter bijzonder dat de Europese richtlijnen niet enkel uit principes en vereisten bestaan, maar dat deze zijn omgezet in vragen die AI-ontwikkelaars kunnen gebruiken. Zij kunnen zo testen of hun systeem aan de zeven vereisten voldoet. Daardoor hebben de ethische vereisten een praktische invulling gekregen. Zo bestaat bijvoorbeeld de vraag of er maatregelen zijn genomen om de impact van een AI-systeem op het milieu te verminderen.

Pilotfase

Deze zomer zullen de ethische richtlijnen en de bijbehorende vragenlijst in een pilotfase getest worden om te achterhalen hoe deze verbeterd kunnen worden. Deze fase staat open voor elke organisatie die AI-systemen ontwikkelen en gebruiken. Er zal vooral getest worden in hoeverre de vragenlijst bruikbaar is voor de ontwikkelaars van AI-systemen:

  • Zijn de vragen duidelijk?
  • Zijn de vragen nuttig?
  • Voor welke toepassingen van AI zijn de vragen relevant en voor welke toepassingen niet?
  • Is er overlap tussen wat ontwikkelaars nu al doen en gebruiken om hun AI-systeem betrouwbaar te maken en de vragen uit de vragenlijst?
  • Waar is behoeften aan?
  • Welke vragen zijn overbodig?

De pilotfase moet meer inzicht geven in de bruikbaarheid van de vragen, maar ook wat er precies met de ethische richtlijnen en de vragenlijst moet gebeuren. Is er behoefte aan ethische richtlijnen? Kan de vragenlijst op één of andere manier worden ingekort? Moeten de richtlijnen worden omgezet in bindende regelgeving? En geldt dit voor alle toepassingen van AI, of enkel voor toepassingen waarbij de impact op mensen groter is, zoals AI-systemen in de gezondheidszorg?

Een blik op de toekomst

De pilotfase zal worden afgerond in december. Dan zal de AI HLEG de feedback bekijken en overwegen wat er met de richtlijnen moet gebeuren. De verwachting bij betrokkenen is dat er aan de zeven vereisten zelf niet veel gesleuteld zal worden, maar dat de vragenlijst wel zal veranderen. Verwacht wordt dat de vragenlijst ingekort zal worden naar aanleiding van de pilotfase en dat er verschil zal worden gemaakt tussen de verschillende toepassingsvormen van AI. Verder zal er wellicht ook overwogen worden om (een deel van) de richtlijnen om te zetten in regels, maar ook dit zal naar verwachting afhangen van de toepassing.

Daarnaast zal veel afhangen van de nieuwe Commissie en het nieuwe Parlement. Zij zullen de plannen die er nu liggen verder invullen. De eerste vraag is hoeveel er geïnvesteerd zal worden in AI-onderzoek onder Horizon Europe en het AI-domein in Digital Europe. Parlement en Commissie zullen ook een visie geven over de ethische richtlijnen en de bijbehorende vragenlijst. Verder zullen zij wellicht ook maatregelen aankondigen om beter te kunnen profiteren van AI, zoals de AI HLG al heeft voorgesteld. Het gaat dan bijvoorbeeld om: de toegang tot data, ICT-infrastructuur, vaardigheden van Europese burgers om om te kunnen gaan met AI en het ontwikkelen en behouden van AI-talenten.

Wanneer we nog verder in de toekomst kijken zal het interessant zijn om te zien of de Commissie haar intentie om richtlijnen internationaal te promoten en zo de standaard te zetten heeft kunnen waarmaken. Zullen de richtlijnen een dusdanige vorm aannemen dat anderen deze benadering ook volgen om daarmee hun AI-systeem te introduceren op de Europese markt?

Gebrek aan AI-experts

Een wezenlijke vraag die gesteld moet worden is of met deze richtlijnen ook de echte knelpunten worden aangepakt. Een groot probleem in het onderwijs- en onderzoeksveld en het bedrijfsleven is het gebrek aan voldoende experts. De onderzoeksvragen liggen er, net zoals aanmeldingen van nieuwe studenten voor AI-studies en vacatures waarin gevraagd wordt om AI-specialisten. Er zijn echter niet genoeg onderzoekers, docenten en werknemers om de vraag naar onderwijs en vervulling van arbeidsplaatsen op te vullen. Deze problemen gaan niet worden opgelost door een ethisch kader voor AI-systemen, maar vereisen een duidelijke visie, investeringen en programma’s voor het opleiden en behouden van Europese talenten, zodat zij niet verdwijnen naar bijvoorbeeld Silicon Valley.

Conclusie

Niet alleen AI-systemen ontwikkelen zich snel, ook beleidsontwikkelingen op dit domein volgen elkaar in snel tempo op. In een jaar tijd is al veel gebeurd, maar de ambities van de EU zijn dan ook groot. Er zijn plannen ontwikkeld om Europa wereldleider te maken op het gebied van AI. Daarbij worden de ethische richtlijnen gezien als een belangrijke troef om de standaard te zetten voor goede AI-systemen. De Commissie heeft ingezet op ethische richtlijnen om zo de wereld te veroveren met Europese AI, maar is dit genoeg? Waarschijnlijk niet! Hoewel het te prijzen is dat de EU inspeelt op de veranderingen die AI kan brengen in de samenleving en het debat aanzwengelt hoe onwenselijke effecten voorkomen kunnen worden, gaat enkel ethiek Europa niet helpen. Een groot probleem in het onderwijs- en onderzoeksveld en het bedrijfsleven is het gebrek aan AI-experts. Ethische richtlijnen gaan mensen niet opleiden, goed AI-onderwijs wel. Laat daarom niet ethiek de troef zijn van Europa, maar zet in op Europa’s echte troef, namelijk haar menselijk kapitaal!

Context

In april 2018 kondigde de Commissie haar voornemen aan om ethische richtlijnen voor AI te ontwikkelen met de hulp van een High-Level Group. De AI HLEG presenteerde in december 2018 een eerste conceptieversie van deze richtlijnen, waar belanghebbenden feedback op konden geven. Daarnaast presenteerde de Commissie in december 2018 een gecoördineerd plan om de ontwikkeling en het gebruik van AI in Europa te bevorderen. In februari 2019 hebben de lidstaten hun steun uitgesproken voor dit plan. Daarnaast werken alle lidstaten aan een nationale AI-strategie.

Nederland zal deze AI-strategie na de zomer presenteren, zo blijkt uit de Nederlandse Digitaliseringsstrategie 2.0. Ook zal het kabinet dan met een beleidsplan voor AI, publieke waarden en mensenrechten komen. Het kabinet kan zich vinden in de ontwikkeling van ethische richtlijnen en is voorstander van een Europees kader, aangezien AI grensoverschrijdend wordt toegepast.

Daarnaast ontwikkelt Nederland een meerjarig onderzoeks- en innovatieprogramma voor AI (2020-2023).  Bij de ontwikkeling van de Nederlandse AI-strategie is een coalitie (AINED) van publieke en private partijen opgericht waar onder meer NWO en TNO lid van zijn. Het AI-rapport dat zij in november presenteerde zal als inspiratie dienen voor de Nederlandse strategie.

Geschreven door: Renée Overbeek