Door:
Joris Tielens

14 februari 2022

Tags

Kunstmatige intelligentie bepaalt steeds meer ons leven, ook in Afrika, maar misbruik dreigt bij gebrek aan controle – en de mogelijkheden zijn nog niet eerlijk verdeeld. Positieve toepassingen zijn er net zo goed: ethiek en cultuur dringen erin door en lokale kwesties worden ermee verholpen. Scherpte is niettemin geboden: ‘Afrikanen moeten het recht nemen om hun eigen data te bezitten.’

Kunstmatige intelligentie is niet iets van de verre toekomst, maar heeft vandaag al invloed op het leven van miljarden mensen, vaak zonder dat ze het doorhebben. Het bepaalt welke berichten boven aan je tijdlijn van Instagram, Facebook of Twitter staan en welke producten of zoekresultaten je als eerste ziet op Google, maar het wordt ook ingezet bij het verstrekken van uitkeringen en hypotheken of bij het zoeken van kandidaten voor banen.

Ook in de wetenschap wordt het steeds vaker gebruikt, op bijna elk vakgebied: in de geneeskunde en synthetische biologie, maar ook binnen de sociale wetenschappen, waar de technologie gebruikt wordt om teksten te analyseren. Voor het voorspellen van weer en klimaat is het onmisbaar. De NWO heeft veel voorbeelden op een rij gezet.

De schaduwkant van de technologie is ook bekend: in algoritmes kunnen aannames zitten die racistisch zijn, denk aan de toeslagenaffaire bij de Belastingdienst. Het gevaar dreigt dat er in toepassingen van kunstmatige intelligentie in Afrika en andere niet-westerse landen aannames terechtkomen die voortvloeien uit een westerse cultuur. En er zijn meer beperkingen van de technologie in lage-inkomenslanden.

Supercomputers en datasets

‘Er wordt op dit vlak veel werk verzet door onderzoekers in Afrika’, zegt die uit Nederland komt, maar in Engeland woont en werkt. Ze onderzoekt aan het Leverhulme Centre for the Future of Intelligence (van de Universiteit van Cambridge) hoe kunstmatige intelligentie wordt gebruikt en gerepresenteerd. ‘Maar de toegang tot grote datasets en supercomputers om die te verwerken is in veel lage-inkomenslanden beperkt, waar onderzoekers, bedrijven en instellingen dus last van hebben.’

De gegevens die in veel kunstmatige intelligentie gebruikt worden zijn bovendien in handen van grote techbedrijven, zoals Google en Facebook. ‘Bijna een miljard Indiërs gebruiken alleen Facebook en WhatsApp, geen ander internet. Al hun internetverkeer is eigendom van één bedrijf.’

Kanta Dihal

Het is gevaarlijk als zoveel macht zozeer geconcentreerd is, zegt Dihal: denk aan het misbruik dat van gegevens gemaakt is om verkiezingen te ondermijnen. Bekend is de beïnvloeding van de Amerikaanse verkiezingen door automatische sociale-mediabots, die positieve berichten over Trump verspreidden. Ze waren met kunstmatige intelligentie aan de ontvanger aangepast, gebaseerd op diens Facebook-gegevens. Maar het was niet de eerste keer dat het gebeurde. ‘De algoritmes die dat deden’, zegt Dihal, ‘waren al uitgeprobeerd bij de verkiezingen van Kenia en Nigeria.’

‘Schandalig misbruik van goedkope arbeid’

Kunstmatige intelligentie kàn een schadelijke technologie zijn, bevestigt de Zuid-Afrikaanse hoogleraar filosofie Emma Ruttkamp-Bloem. Ze werkt aan de Universiteit van Pretoria en leidt de onderzoeksgroep over ethiek in kunstmatige intelligentie bij het Centre for AI Research. ‘Een schadelijke toepassing’, zegt ze, ‘is waarschijnlijker in landen die hun burgers niet goed beschermen tegen misbruik en de schending van privacy door Big Tech-bedrijven.’

Ook de oorlog in Ethiopië wordt vermoedelijk gevoed door nepberichten op sociale media, die met kunstmatige intelligentie zijn vervaardigd. In Europa is er betere wetgeving, maar ook hier is de toepassing van de technologie niet onder controle, zegt ze.

Google en Facebook verplaatsen activiteiten naar landen waar minder controle is, legt ze uit. Zo werken er in West-Afrika goedkope arbeidskrachten aan het labelen van afbeeldingen op foto’s. Om een algoritme te kunnen maken dat beelden herkent, wat onder meer nodig is voor zelfrijdende auto’s, moet het eerst leren wat er op de beelden staat. Het labelen van wat een boom is en wat een verkeersbord is mensenwerk, wat dus in West-Afrika gebeurt – ‘onder slechte arbeidsomstandigheden en als schandalig misbruik van goedkope arbeid’, zegt Ruttkamp-Bloem.

Daarnaast zijn de data waar kunstmatige intelligentie gebruik van maakt veelal gebaseerd op Amerikaanse, Europese of Chinese talen en culturen, zegt ze. ‘En de gegevens die Big Tech in Afrika verzamelt, blijven daar niet. Afrikanen moeten het recht nemen om hun eigen data te bezitten.’

Kanta Dihal bevestigt de data-ongelijkheid. ‘Vertaalmachines werken perfect in een vertaling van het Nederlands naar het Engels.’ Dat komt doordat er op het internet heel veel goede vertalingen beschikbaar zijn in die talen. ‘Google Translate gebruikt documenten die de Europese Unie in al haar eigen talen door professionele vertalers laat omzetten. In andere talen, zoals die uit Afrika, staan er veel minder vertalingen op internet.’

Positieve mogelijkheden

Daarom is het belangrijk dat er meer aandacht komt voor kunstmatige intelligentie die in een Afrikaanse context past, zegt Ruttkamp-Bloem. Er zijn voorbeelden van initiatieven van onderop die daaraan werken, zegt ze, zoals het Zuid-Afrikaanse Masakhane-project, dat AI-onderzoekers samenbrengt die werken aan Afrikaanse talen. ‘Vertalen, ook van spraak naar tekst, wordt steeds belangrijker, ook in het onderwijs en de wetenschap. Als dat alles vooral goed werkt in het Engels, maar niet in andere talen, dan vergroot dat de ongelijkheid.’

Ze ziet meer Afrikaanse initiatieven voor ontwikkeling van kunstmatige intelligentie op en vóór het eigen continent. Zoals Data Science Nigeria, een trainingscentrum zonder winstoogmerk in Lagos dat jongeren klaarstoomt voor de nieuwe technologie. Het bedrijf Zipline begon bij een paar jonge gezondheidswerkers in Rwanda die een manier zochten om medicijnen bij patiënten in slecht bereikbare dorpen te krijgen – en dat met drones gingen doen. Het levert nu wereldwijd.

Dihal ziet ook toekomst in AI-toepassingen van onderop in lage-inkomenslanden. ‘Er is ongelijkheid in de toegang tot data en supercomputer tussen Noord en Zuid, ook in de wetenschap, maar we moeten misschien niet hameren op het gelijktrekken daarvan.’

Méér Big Data en supercomputers zijn niet per se de juiste oplossing. Het gebruik van al die data leidt ook tot problemen. ‘Het is misschien slimmer te bedenken wat je met kunstmatige intelligentie wilt bereiken en welke vragen je ermee wil beantwoorden. Misschien heb je geen grote dataset nodig, maar volstaan meer specifieke lokale data – die misschien niet door Facebook, maar door het lokale ziekenhuis gebruikt worden.’

Inclusieve ontwikkeling van AI

Er is een positieve rol voor kunstmatige intelligentie en algoritmes in Afrika, zegt ook Ruttkamp-Bloem, maar dat vergt wel betere regulering en een ethische toepassing ervan: ‘Dat geldt voor Big Tech, maar ook in wetenschappelijk onderzoek.’ Om te voorkomen dat er westerse vooroordelen en aannames in de toepassing van AI komen, is het nodig dat iedereen kan meepraten over de ontwikkeling ervan, zegt ze. ‘Teams die aan kunstmatige intelligentie werken, moeten inclusief zijn: divers in cultuur en nationaliteit.’

Noord-Zuid-samenwerking in de wetenschap gebeurt vaak ‘in een context van epistemische onrechtvaardigheid’, vervolgt ze. ‘Zuidelijk onderzoek wordt eerder gezien als onbetrouwbaar. Onderzoekers uit het Zuiden krijgen minder kans om te publiceren en conferenties worden zelden in Afrika gehouden. Wij worden geacht naar Europa, de VS of Dubai af te reizen, maar vaak is dat onbetaalbaar.’

De recente aanbevelingen van Unesco over ethiek in kunstmatige intelligentie kwamen wel op een inclusieve manier tot stand, zegt Ruttkamp-Bloem. ‘Dat was verfrissend.’ Zijzelf was voorzitter van de groep van 24 onderzoekers en diplomaten die de tekst opstelde, die eind vorig jaar door 193 lidstaten van de VN is aangenomen.

‘Er zitten perspectieven uit Noord en Zuid in. De waarden van de aanbevelingen zijn onder meer gebaseerd op het taoïsme, het boeddhisme en het ubuntu: de onderlinge verbondenheid van mensen staat centraal. Een toepassing van kunstmatige intelligentie moet aan die verbondenheid bijdragen – en die niet ondergraven.’

Emma Ruttkamp-Bloem

In de richtlijnen staan principes: dat kunstmatige intelligentie geen schade aan mensen mag berokkenen, mensenrechten moet respecteren, het milieu niet mag ondermijnen en qua mogelijkheden rechtvaardig verdeeld moet zijn. De richtlijnen zijn niet juridisch bindend, maar landen moeten wel jaarlijks verslag doen van de ontwikkelingen, op basis van monitoring en evaluatie, zegt Ruttkamp-Bloem.

Om het te laten werken is er meer bewustwording nodig bij het brede publiek van de kansen, maar ook van de gevaren van kunstmatige intelligentie, zegt ze. ‘Big Tech gedijt goed op onwetendheid. Het is belangrijk dat mensen begrijpen wat de gevaren zijn en verantwoordelijkheid nemen.’

Zo zijn er in Rwanda al digitale ambassadeurs, jonge mensen die de dorpen in gaan om mensen uit te leggen wat de mogelijkheden, maar ook de bedreigingen zijn van nieuwe digitale technologieën. Dat je niet zomaar je data moet weggeven en dat er nepnieuws op je tijdlijn kan staan.

Voor die bewustwording ziet Ruttkamp-Bloem vooral een rol voor maatschappelijke organisaties. ‘Ik zie in Afrika steeds meer activisme rondom kunstmatige intelligentie ontstaan’, zegt ze, tot slot. ‘Het geheime wapen van de ethiek rond kunstmatige intelligentie is het maatschappelijk middenveld, als waakhond van de Big Tech-bedrijven.’

 

Uitgelichte afbeelding: Alexa Steinbrück / Better Images of AI / Explainable AI / CC-BY 4.0

De Engelstalige versie is te lezen op de website van NWO-WOTRO. Big Tech companies thrive on ignorance | NWO

 

Voor goed onderzoek naar inclusieve mondiale ontwikkeling is het essentieel om samenwerkingen gelijkwaardig op te zetten. In deze serie onderzoeken Vice Versa en WOTRO Science for Global Development de dynamiek van Noord-Zuid-samenwerking in de wetenschap. Wat gaat er goed en wat moet er beter? De reeks is een vervolg op een eerdere serie artikelen over de rol van wetenschappers in het publieke debat.

Is de beleidsnotitie BuHaOS de route naar groene en gelijkwaardige Nederlandse handel?

Door Karin van Boxtel | 22 september 2022

Nederland heeft als belangrijk handelsland een grote sociale en ecologische voetafdruk over de grens. De beleidsnotitie Buitenlandse Handel en Ontwikkelingssamenwerking, waarover de Tweede Kamer op 28 september debatteert, bevat een aantal veelbelovende elementen die het Nederlandse handelsbeleid daadwerkelijke duurzaam en rechtvaardig kunnen maken. Maar om daar te komen moet de minister haar ambities wel omzetten in daadkrachtig beleid, schrijft Karin van Boxtel van Both ENDS in deze opiniebijdrage.

Lees artikel

Community Voices: het succes van Nkoilale

Door Vice Versa | 21 september 2022

In deze speciale aflevering van onze serie Community Voices van Vice Versa Global  vertellen we het buitengewone verhaal…

Lees artikel

Een routekaart voor het dekoloniseren van global health

Door Marlies Pilon | 29 augustus 2022

Voor Seye Abimbola is het persoonlijke politiek. Vanuit zijn huis in Sydney vertelt de hoogleraar gezondheidsonderzoek en houder van de Prins Claus-leerstoel gerechtigheid in global health zijn missie en levensverhaal. ‘Is het normaal dat ik, een Nigeriaanse wetenschapper, als allerhoogste ideaal heb dat mijn onderzoek in een Engels vakblad wordt gepubliceerd? Is dat gezond? Nee, het is niet normaal! Daarom moeten we mensen wakker schudden.’

Lees artikel