Artificiële intelligentie biedt enorm veel mogelijkheden, maar daarbij dient ook rekening te worden gehouden met tal van ethische, juridische, maatschappelijke en psychologische factoren. Vijf experts gaan in discussie en geven hun visie.
Tekst: Joris Hendrickx – Foto’s: Kris Van Exel
Welke uitdagingen komen kijken bij AI?
Mieke De Ketelaere: “Er wordt weleens gezegd dat we momenteel terug in een zomer zitten van AI. Grote spelers hebben zelf sterk ingezet op AI-omgevingen op basis van grote hoeveelheden digitale data. Zij hebben het mogelijk gemaakt dat ook wij als kleine gebruiker zelf onze data in hun cloud kunnen onderbrengen en met AI aan de slag kunnen. Maar daar gaan ook een aantal uitdagingen bij gepaard. Zo zijn er de kosten wat betreft energieverbruik en data opslag, maar er zijn ook nadelen wat betreft privacy en beslissingssnelheden. Bij deze gecentraliseerde AI-systemen in de cloud moeten alle data immers naar centrale plaatsen worden verscheept. Daarom werken we er bij imec aan om AI ook gedecentraliseerd te plaatsen op de eindpunten. We creëren de intelligentie in de systemen waar de data wordt gecreëerd en zelfs in de sensoren of op de camera’s. Zo kan de uitdaging rond de privacy al deels opgevangen worden. Verder heeft dat ook een positieve impact op de andere nadelen. Dat vraagt dan wel om slimmere chips, sensoren en connectiviteit tussen de systemen en natuurlijk ook slimmere algoritmes die met minder data even goede beslissingen kunnen nemen.”
Hans Van Heghe: “Ook de psychologie van de gebruikers is een belangrijke uitdaging. Veel eindgebruikers begrijpen niet of amper wat AI inhoudt, en dat kan weerstand opwekken. Velen vrezen (grotendeels onterecht) voor hun job. Om tot goede resultaten te komen, komt het er dus op aan om de zaken inzichtelijk te maken en mensen er vertrouwd mee te laten worden. Dat doen we door middel van toegepaste technologieën. Ook tonen we dat ze dankzij steeds gebruiksvriendelijker wordende user interfaces geen zware digitale competenties nodig hebben om morgen hun werk te kunnen blijven doen. Daarnaast is er het ethische aspect, dat bestaat uit twee lijnen: het detectieve en het supportieve. AI kan naar mijn mening supportief zijn aan de mens, en slechts in uitzonderlijke gevallen directief. Vanuit onze ervaring weten we bijvoorbeeld dat veel mensen in de juridische sector bang hebben dat computers binnenkort in hun plaats beslissingen zullen nemen. De uitdaging zit hem naar mijn mening dus eerder in het creëren van vertrouwen bij de eindgebruikers. Hen duidelijk maken dat men geen digitale expert hoeft te zijn en dat de technologie steeds ondersteunend zal (moeten) zijn.”
Ferdinand Casier: “Bedrijven kunnen in functie van hun strategie ofwel AI-producten gebruiken die door andere bedrijven zijn ontwikkeld ofwel zelf AI-producten ontwikkelen. In beide gevallen zullen ze moeten werken op hun eigen data die meestal niet optimaal zijn om de beoogde doelstellingen te bereiken. De allereerste uitdaging is dus om kwalitatieve en relevante data te genereren. Nadien moet de business case sterk genoeg zijn om alle betrokkenen in het project mee te krijgen.”
Davio Larnout: “Het is voor bedrijven en organisaties een belangrijke uitdaging om een langetermijnvisie te combineren met concrete cases die op korte termijn waarde opleveren. Zo wil VDAB AI inzetten als carrière-assistent: ‘jobsuggesties op basis van je profiel’ was hier de concrete case. Tijdens die eerste case leer je ook hoe je je organisatie, data en infrastructuur kan bijsturen om de volgende cases beter te faciliteren. Om directe impact te maken, zijn drie zaken belangrijk. Ten eerste: maak bij aanvang het businessdoel kristalhelder. Hoe zal je meten of het project een succes is? Ten tweede: werk iteratief. Start telkens met de meest simpele versie die bewijst dat de oplossing werkt en breid daarna uit. Het pad naar het einddoel hoeft nog niet vast te liggen. Zo beperk je risico’s. Ten derde: gebruik building blocks.”
“De huidige zomer van AI geeft ruimte voor nieuwe opportuniteiten. Om te vermijden dat we naar een winter gaan, helpen we onze klanten om snel concrete resultaten te bekomen. Zo maken we de waarde van AI tastbaar. Hierbij is het belangrijk dat we de eindgebruiker altijd meenemen in het verhaal, om er zeker van te zijn dat die het eindproduct zal gebruiken.”
Ferdinand Casier: “De laatste maanden heb ik de indruk dat de media veel realistischer zijn geworden over wat wel en niet kan. Er zijn nu meer cases en getuigenissen. De aanvankelijke perceptie dat AI iets magisch zou zijn, is dus al even voorbij.”
Hoe kunnen we tegemoetkomen aan de ethische en juridische uitdagingen?
Peggy Valcke: “Net daarom starten we nu met een Kenniscentrum voor Data & Maatschappij, dat onderdeel uitmaakt van het Vlaams Beleidsplan AI onder de pijler ‘flankerend beleid’. Onze expertgroep werkt er onder andere rond bewustwording, maar ook rond vertrouwen in AI en juridisch-ethische vraagstukken omtrent aansprakelijkheid, verantwoording, fairness, enz.”
“De Europese Unie heeft zich als doel gesteld om wereldleider te worden in ethische of betrouwbare AI. De vorig jaar opgerichte ‘High Level Expert Group on AI’ publiceerde op 8 april richtsnoeren met enkele voorwaarden die moeten worden verzoend om te kunnen spreken over betrouwbare AI: deze moet in overeenstemming zijn met de wetgeving, ethische principes respecteren en technisch robuust zijn. ‘Robuust’ en ‘ethisch’ of ‘wettelijk’ vallen niet noodzakelijk samen. Als de onderliggende datasets waarop algoritmes worden getraind vooroordelen bevatten, dan kunnen die door het systeem in stand gehouden of zelfs versterkt worden. Binnen de discipline van machine learning groeide de laatste jaren dan ook een sterke aandacht voor fairness, accountability en transparency.”
We moeten niet enkel nationaal intensiever samenwerken, maar ook op Europees niveau tussen de verschillende AI-centra.
Ferdinand Casier, business group leader Digital Industries Agoria.
Mieke De Ketelaere: “Vanuit onderzoeksperspectief hanteren we het FATE-principe: Fair, Accountable, Transparent en Explainable. Technisch gezien is er al heel wat gerealiseerd om de algoritmes transparanter en verstaanbaar te maken. De vertaalslag daarvan naar de eindgebruiker ontbreekt vaak echter nog.”
Peggy Valcke: “We kunnen terugvallen op heel wat bestaande wetgeving om krijtlijnen uit te zetten voor de implementatie van AI-toepassingen. Ongetwijfeld zullen bepaalde juridische kaders gemoderniseerd of aangevuld moeten worden, maar of er nood is aan radicaal nieuwe principes, betwijfel ik sterk. Nochtans heeft de nieuwe Commissievoorzitter Ursula von der Leyen aangekondigd een wetgevend initiatief te zullen nemen voor een gecoördineerde Europese aanpak van de ethische implicaties van AI.”
Ferdinand Casier: “Op Europees niveau zijn er alvast ethische richtlijnen opgesteld over welke vragen men zich moet stellen als men met een AI-project start. Bij Agoria hebben we een werkgroep opgestart om die richtlijnen op te volgen en uit te testen. De resultaten worden op Europees niveau verzameld en zullen begin volgend jaar worden bekendgemaakt. Een aantal bedrijven zullen een meer diepgaande test uitvoeren om te zien of het robuuste, ethische en juridische met elkaar kunnen worden verzoend.”
Davio Larnout: “Een eerste stap in de juiste richting is klare taal spreken, zowel rond het begrip ‘AI’ als ‘ethiek’. AI is het idee dat machines menselijke intelligentie vertonen en een verzamelnaam voor de technologieën die dat nastreven. Een specifieke technologie om AI te bereiken is machine learning, het gebruik maken van algoritmes die leren uit voorbeelden. Ook ethiek moet je per case concreet maken. Wil je bijvoorbeeld bij jobsuggesties voor verschillende groepen gelijke uitkomsten of gelijke kansen? Ik denk dat iedereen het erover eens is dat ethiek belangrijk is. De vraag is, hoe definieren we het. ‘Bias’ of ‘fairness’ zijn complexe concepten waarbij verschillende definities correct kunnen zijn. Om een goede keuze te maken, is het begrijpen van de technologie cruciaal. Daarom helpen wij om de technologie inzichtelijk te maken en doen we zelf onderzoek naar hoe fairness geïntegreerd kan worden in AI-oplossingen.”
Waarom is de vertaalslag naar de eindgebruiker zo cruciaal?
Davio Larnout: “Alles draait uiteindelijk om de eindgebruiker. We moeten zowel AI naar de gebruiker brengen, als de gebruiker naar AI. Dat eerste kan door uit te leggen aan de gebruiker welke data gebruikt worden en hoe AI-oplossingen conceptueel werken. Dat tweede kan door van bij het begin de verwachtingen en expertise van de gebruiker mee te nemen.”
Mieke De Ketelaere: “De vertaalslag is niet enkel cruciaal naar de eindgebruiker, maar moet ook plaatsvinden binnen bedrijven die AI gaan inzetten. Een gekend probleem is dat de technische profielen die de algoritmes schrijven vaak niet exact weten in welke context ze door de business zullen worden ingezet. Omgekeerd laten veel bedrijven zich verleiden om een algoritme te kopen dat in een ander land op basis van ongekende data daar is getraind. Maar die data komt vaak niet overeen met de situatie in Vlaanderen waarover het algoritme een beslissing moet maken. Ook dat heeft te maken met onwetendheid. De job van AI-vertaler is volgens mij een echte job van de toekomst.”
Hans Van Heghe: “Zolang dat niet kan, zal er heel wat wantrouwen blijven. Zo deden we enkele jaren geleden een project voor een ngo om een miljoen e-mails en 300.000 verslagen rond een humanitaire crisis te processen en daaruit te capteren wat de organisatie kon verbeteren. Ook al was deze organisatie cultuurmatig sterk gericht op het oplossen van crisissen, toch weigerde 10% van de medewerkers om mails te delen. De reden daarvoor was dat ze niet begrepen wat AI inhoudt. Het is dus niet omdat je het uitlegt dat de gebruiker het vertrouwt. Bovendien kent de IT-wereld de juridische wereld niet. Er bestaat veel, maar er is te weinig inspanning om het juridische te vertalen naar de technische wereld. We zijn net succesvol in de juridische wereld omdat we wel continu die vertaalslag maken.”
Veel eindgebruikers begrijpen niet of amper wat AI inhoudt, en dat kan weerstand opwekken. Velen vrezen – grotendeels onterecht – voor hun job.
Hans Van Heghe, managing director Knowliah.
Peggy Valcke: “AI kan bijvoorbeeld worden gebruikt om heel snel contracten te screenen, maar in veel advocatenkantoren vreest men dat ze dan de uren van de stagiairs die dat tot nu toe deden niet meer kunnen factureren.”
Hans Van Heghe: “Eigenlijk heeft dat dan niets meer met AI te maken, maar met de digitalisering van de business. Stilaan verandert dit wel omdat er steeds meer jongeren zijn, maar het is toch vooral een psychologisch proces. De beste manier om dat op te vangen, is om in kleine stappen te werken. Je kan het vergelijken met het opgaan van een trap. Hoe meer treden je overslaat, hoe groter de kans om te vallen. We krijgen vandaag veel vragen uit de advocatuur. En dat gaat niet zozeer over beslissingssystemen of over het screenen van contracten, maar simpelweg over geavanceerde zoekmogelijkheden die gebruik maken van AI. De noden van de gebruiker zijn meestal bepalend, niet de technische mogelijkheden.”
Wat is op korte termijn al mogelijk?
Hans Van Heghe: “We hebben bijvoorbeeld netwerken getraind om persoonsnamen, adressen en contactgegevens te kunnen herkennen. Zo kunnen bedrijven heel gemakkelijk hun GDPR-verplichtingen invullen. Voor ziekenhuizen hebben we modellen ontwikkeld om medische verslagen om te zetten naar big data. Er zijn enorm veel toepassingen, maar niet iedereen kent de building blocks of beseft wat wel of niet mogelijk is.”
Ferdinand Casier: “Binnenkort zal Agoria een MOOC (Massive Open Online Course) aankondigen waarmee we aan bedrijven de opportuniteiten en valkuilen van AI toelichten en hoe ze er concreet mee kunnen starten. Hiermee willen we verder gaan dan louter inspireren en een aantal tips meegeven over de aanpak van een AI-project.”
Hoe doet België het in vergelijking met andere landen?
Ferdinand Casier: “In België zijn steeds meer bedrijven er alvast mee bezig. Tot nu toe gaat dat over zo’n 15% van de bedrijven. Dat zijn dan vooral grotere innoverende bedrijven en digitale start-ups en scale-ups. Nu komen we in een fase waar ook de klassieke bedrijven interesse krijgen omdat ze zich door de concrete cases van de eerste golf van Belgische bedrijven kunnen laten inspireren. Hierdoor gaan ook meer en meer kmo’s aan de slag.”
Davio Larnout: “Er zijn tegenwoordig steeds meer kant-en-klare oplossingen waardoor AI toegankelijk wordt voor kmo’s. Anderzijds zien we dat grote bedrijven de leiding durven te nemen door te investeren in maatoplossingen die hen onderscheiden van de competitie. We zien de vraag naar dat laatste in België nog altijd sterk toenemen.”
Ferdinand Casier: “Er is in België een heel ecosysteem van AI-bedrijven die de nodige diensten kunnen afleveren om die kleine stappen te helpen nemen. Onder het adoptieluik van het Vlaams Actieplan Artificiële Intelligentie biedt VLAIO bovendien instrumenten aan om projecten op te starten onder begeleiding van AI-bedrijven. De overheid wil bedrijven dus actief steunen om de eerste stappen te zetten en verder te gaan. In totaal spendeert ze daar jaarlijks 32 miljoen euro aan, en dat gedurende vijf jaar. Ook in Wallonië werd de DigitalWallonia4.AI strategie aangekondigd, met een aantal instrumenten om de bedrijven te ondersteunen.”
Mieke De Ketelaere: “We hebben in Vlaanderen een heel ambitieus actieplan opgezet, met daarin de drie pijlers van strategisch basisonderzoek, uitrol in industrie via VLAIO en flankerend beleid naar ethiek, communicatie en opleidingen. Dat brengt ons in de topregio’s van Europa. Het programma wordt gedragen door het hele aanbiedende (de universiteiten en SOCS) en afnemende veld (de industrie). Bovendien is het tot stand gekomen na intens overleg en ook internationaal afgepoetst. We zetten in België niet alleen in op nanotechnologie die ervoor zorgt dat AI kan werken met minder energieverbruik, maar hebben ook een sterke focus om AI even krachtig en direct te laten werken tussen het steeds groeiende aantal systemen en sensoren op de eindpunten. We maken dus wereldwijd het verschil met een geïntegreerde aanpak op basis van hardware en software.”
Ferdinand Casier: “We zijn ook heel sterk in hybride AI. Daarbij gaat het over de combinatie van de kennis van AI aan de ene kant, en zeer diepgaande domeinkennis over bepaalde sectoren of processen aan de andere kant. Net zoals de rest van Europa doen we het hierdoor heel goed wat betreft B2B-applicaties.”
Het is belangrijk dat we de eindgebruiker altijd meenemen in het verhaal, om er zeker van te zijn dat die het eindproduct zal gebruiken.
Davio Larnout, co-founder & business lead Radix.
Davio Larnout: “We moeten uitgaan van onze sterktes waarbij bijvoorbeeld de maakindustrie en de kennis van chips troeven kunnen zijn. Door dat samen met AI naar voor te brengen, kunnen we het verschil maken.”
Hans Van Heghe: “Internationaal doen we het zeker niet slecht. Helaas is er in België en Frankrijk wel een evolutie waarbij er bij de contracten met grote bedrijven steeds vaker een dataclausule wordt gevoegd die stelt dat we de data niet mogen gebruiken voor AI. Dat is volgens mij het gevolg van de aandacht die de pers heeft besteed aan wie eigenaar is van die data, maar ook wantrouwen en onbegrip spelen zeker mee. Ons antwoord is dan dat zij ook de modellen niet mogen gebruiken die wij maken op basis van data van anderen.”
Hoe kan dat worden tegengegaan?
Peggy Valcke: “Een van de grote uitdagingen is inderdaad om een juridisch sluitend model te vinden voor het delen van data, waarin rekening wordt gehouden met de belangen en bezorgdheden van zowel de ondernemingen en individuen, alsook het publieke belang. Onze onderzoeksgroep is betrokken bij diverse projecten waarin dat aan bod komt. Het opzetten van grote dataplatformen via publiek-private partnerschappen is overigens één van de speerpunten van het Europese Horizon2020 beleid.”
Hans Van Heghe: “Er is wat dat betreft nog een onduidelijkheid over het verschil tussen data van de klant en de modellen die we bouwen uit de data van meerdere klanten.”
Ferdinand Casier: “Toch is net dat een sleutelaspect om tot succesvolle projecten te komen. Hoe meer data op een relevante en kwalitatieve manier kunnen worden gedeeld tussen partners in de waardeketen of tussen departementen in grote organisaties, hoe beter.”
Mieke De Ketelaere: “Partijen zijn echter niet altijd bereid om hun data te delen. Een bestaand alternatief is dan bijvoorbeeld om op de verschillende eindpunten een algoritme in te zetten dat enkel op lokale data wordt getraind, en het getrainde algoritme in plaats van de data te delen met andere partijen in het ecosysteem. We noemen het gedistribueerd leren. Bij imec zetten we sterk in op AI-ecosystemen waarin kleine spelers ook ondersteuning krijgen. Stand-alone kom je in de toekomst met jouw AI-systeem nergens. De kracht van het succes zit hem in het bouwen van de juiste geïntegreerde ecosystemen. Dat helpt ook om mensen gerust te stellen die tot nu toe dachten dat ze hun data zullen moeten delen. Het neemt de spanning weg en zet de weg open voor innovatie.”
Davio Larnout: “Klopt. Het concept van federated learning heeft zich inderdaad al bewezen. De uitdaging ligt hem in het samenbrengen van de verschillende spelers en de onderhandelingen die dat met zich meebrengt. Sector federaties en de overheid kunnen hier een interessante rol in spelen.”
Kan het goed werkende ecosysteem waar België voor gekend is een uitkomst bieden?
Ferdinand Casier: “In Vlaanderen is er het Actieplan Artificiële Intelligentie, maar ook in Wallonië en Brussel is men er mee bezig. Op nationaal niveau hebben we met AI4Belgium bovendien een overkoepelend platform opgezet om een dynamiek te creëren waarbij er over de regiogrenzen wordt samengewerkt in transversale projecten. Het heeft immers geen zin om ieder apart hetzelfde te gaan doen. Voor de overheid zijn er alvast fantastische opportuniteiten om transversale projecten aan te boren, denk bijvoorbeeld aan mobiliteit, gezondheid, onderwijs, enz.”
Hans Van Heghe: “In theorie zijn er veel mogelijkheden, maar in de praktijk loopt het toch vaak vast. Er zijn altijd partijen met andere belangen. Als we alle medische informatie zouden omzetten in big data zou dat een wereld van verschil maken voor onze gezondheidszorg. Maar niet iedereen is daarvoor te vinden.”
De job van AI-vertaler is volgens mij een echte job van de toekomst.
Mieke De Ketelaere, program director AI imec.
Ferdinand Casier: “We moeten niet enkel nationaal meer samenwerken, maar ook op Europees niveau tussen de verschillende AI-centra.”
Mieke De Ketelaere: “Nu is het allemaal nog veel te gefragmenteerd. In Nederland staat men enorm ver op het vlak van slimme wegen en slimme mobiliteit omdat zij één uitvoerend agentschap hebben voor al hun infrastructuur. De waarde hiervan is fenomenaal. Zo combineren ze data van de asfalt, verkeer en weer om te bepalen waar ze proactief ambulances en takeldiensten moeten plaatsen om de files te beperken wanneer er een ongeval zou plaatsvinden. Als resultaat wint de autobestuurder meer dan 10% van zijn tijd in de file. In België is zoiets ondenkbaar.”
Ferdinand Casier: “Net daarom ben ik ervan overtuigd dat AI4Belgium een belangrijke troef kan zijn voor België. Ik kan alleen maar hopen dat onze nieuwe regering de wil en ambitie heeft om zulke transversale projecten te ondersteunen.”
Davio Larnout: “Inderdaad. We hopen om in een organisatie zoals AI4Belgium een interessante partner te vinden om projecten met verschillende bedrijven en overheden te faciliteren.”
Hoe kunnen we het bewustzijn en de adaptatie bij het grote publiek verbeteren?
Hans Van Heghe: “Er is nood aan realisme: AI is geen magie. Daarnaast moet het publiek worden gerustgesteld dat hun jobs morgen niet zullen verdwijnen en dat AI betrouwbaar is indien het voldoet aan bepaalde parameters.”
Davio Larnout: “We moeten een algemene kennis ontwikkelen. Opleidingen en MOOC’s, zoals binnenkort georganiseerd door Agoria, zijn een belangrijke eerste stap in de adoptie van AI. Samen met enkele klanten werken we projecten als cursusmateriaal uit. Deze bieden we vervolgens aan via Agoria en binnenkort via onze nieuwe website.”
Peggy Valcke: “Voor bepaalde zaken is absoluut een maatschappelijk debat nodig. Denk aan het toenemende gebruik van AI-technologie – zoals gezichts- en gelaatsherkenning – voor het verhogen van de veiligheid in de publieke ruimte of op publieke evenementen. Meteen duiken doembeelden op. Nochtans kan het best nuttig worden ingezet, op voorwaarde dat de ingezette middelen evenredig zijn aan het nagestreefde doel en er voldoende garanties worden ingebouwd om privacy, vrije meningsuiting, een eerlijk proces, enz. te vrijwaren. Denk bijvoorbeeld aan camera’s op concerten die pas in werking treden als het systeem een situatie van dreiging capteert. Hetzelfde geldt voor AI-technologie gericht op het capteren van emoties. In ziekenhuizen wordt met de technologie geëxperimenteerd om de omgeving aan te passen aan de emotionele toestand van de patiënt, met een beter herstel als resultaat. Bij de inzet daarvan door sociale media om gerichte advertenties voor bijvoorbeeld antidepressiva te tonen, kunnen mijns inziens grote vragen worden gesteld.”
De Europese Unie heeft zich als doel gesteld om wereldleider te worden in ethische of betrouwbare AI.
Peggy Valcke, hoogleraar Recht en Technologie KU Leuven-CiTiP-imec.
Mieke De Ketelaere: “Op grote evenementen kan de privacy beter worden gegarandeerd met nieuwe, vaak nog ongekende, technologische innovaties. Met een radar kan je bijvoorbeeld de stroom van een mensenmassa perfect analyseren. Dat is minder intrusief dan overal camera’s plaatsen. Een deel van het spanningsveld kan dus worden weggenomen door een betere dialoog tussen de huidige maatschappelijke challenges en de eventuele technologische oplossingen hiervoor. Ik stel me soms de vraag of het niet interessant is om de dialoog met het grote publiek te verbeteren door bij iedere AI-toepassing met een individuele impact duidelijker te communiceren wat de waarde is voor het individu, welke type data gebruikt werden om het systeem te trainen, wat de mogelijke gevaren zijn, enz. Eigenlijk net zoals in de bijsluiter van geneesmiddelen”
Peggy Valcke: “Communicatie en transparantie zijn goed, maar mijns inziens onvoldoende. We mogen geen onrealistische verwachtingen koesteren tegenover burgers en consumenten. Er moet nagedacht worden over certificatie- of auditmechanismen waarbij experten beoordelen of een toepassing in overeenstemming is met juridisch-ethische vereisten. Ook daar zullen we binnen het Kenniscentrum rond werken.”