Kunstmatige intelligentie bepaalt steeds meer ons leven, ook in Afrika, maar misbruik dreigt bij gebrek aan controle – en de mogelijkheden zijn nog niet eerlijk verdeeld. Positieve toepassingen zijn er net zo goed: ethiek en cultuur dringen erin door en lokale kwesties worden ermee verholpen. Scherpte is niettemin geboden: ‘Afrikanen moeten het recht nemen om hun eigen data te bezitten.’
Kunstmatige intelligentie is niet iets van de verre toekomst, maar heeft vandaag al invloed op het leven van miljarden mensen, vaak zonder dat ze het doorhebben. Het bepaalt welke berichten boven aan je tijdlijn van Instagram, Facebook of Twitter staan en welke producten of zoekresultaten je als eerste ziet op Google, maar het wordt ook ingezet bij het verstrekken van uitkeringen en hypotheken of bij het zoeken van kandidaten voor banen.
Ook in de wetenschap wordt het steeds vaker gebruikt, op bijna elk vakgebied: in de geneeskunde en synthetische biologie, maar ook binnen de sociale wetenschappen, waar de technologie gebruikt wordt om teksten te analyseren. Voor het voorspellen van weer en klimaat is het onmisbaar. De NWO heeft veel voorbeelden op een rij gezet.
De schaduwkant van de technologie is ook bekend: in algoritmes kunnen aannames zitten die racistisch zijn, denk aan de toeslagenaffaire bij de Belastingdienst. Het gevaar dreigt dat er in toepassingen van kunstmatige intelligentie in Afrika en andere niet-westerse landen aannames terechtkomen die voortvloeien uit een westerse cultuur. En er zijn meer beperkingen van de technologie in lage-inkomenslanden.
Supercomputers en datasets
‘Er wordt op dit vlak veel werk verzet door onderzoekers in Afrika’, zegt die uit Nederland komt, maar in Engeland woont en werkt. Ze onderzoekt aan het Leverhulme Centre for the Future of Intelligence (van de Universiteit van Cambridge) hoe kunstmatige intelligentie wordt gebruikt en gerepresenteerd. ‘Maar de toegang tot grote datasets en supercomputers om die te verwerken is in veel lage-inkomenslanden beperkt, waar onderzoekers, bedrijven en instellingen dus last van hebben.’
De gegevens die in veel kunstmatige intelligentie gebruikt worden zijn bovendien in handen van grote techbedrijven, zoals Google en Facebook. ‘Bijna een miljard Indiërs gebruiken alleen Facebook en WhatsApp, geen ander internet. Al hun internetverkeer is eigendom van één bedrijf.’

Kanta Dihal
Het is gevaarlijk als zoveel macht zozeer geconcentreerd is, zegt Dihal: denk aan het misbruik dat van gegevens gemaakt is om verkiezingen te ondermijnen. Bekend is de beïnvloeding van de Amerikaanse verkiezingen door automatische sociale-mediabots, die positieve berichten over Trump verspreidden. Ze waren met kunstmatige intelligentie aan de ontvanger aangepast, gebaseerd op diens Facebook-gegevens. Maar het was niet de eerste keer dat het gebeurde. ‘De algoritmes die dat deden’, zegt Dihal, ‘waren al uitgeprobeerd bij de verkiezingen van Kenia en Nigeria.’
‘Schandalig misbruik van goedkope arbeid’
Kunstmatige intelligentie kàn een schadelijke technologie zijn, bevestigt de Zuid-Afrikaanse hoogleraar filosofie Emma Ruttkamp-Bloem. Ze werkt aan de Universiteit van Pretoria en leidt de onderzoeksgroep over ethiek in kunstmatige intelligentie bij het Centre for AI Research. ‘Een schadelijke toepassing’, zegt ze, ‘is waarschijnlijker in landen die hun burgers niet goed beschermen tegen misbruik en de schending van privacy door Big Tech-bedrijven.’
Ook de oorlog in Ethiopië wordt vermoedelijk gevoed door nepberichten op sociale media, die met kunstmatige intelligentie zijn vervaardigd. In Europa is er betere wetgeving, maar ook hier is de toepassing van de technologie niet onder controle, zegt ze.
Google en Facebook verplaatsen activiteiten naar landen waar minder controle is, legt ze uit. Zo werken er in West-Afrika goedkope arbeidskrachten aan het labelen van afbeeldingen op foto’s. Om een algoritme te kunnen maken dat beelden herkent, wat onder meer nodig is voor zelfrijdende auto’s, moet het eerst leren wat er op de beelden staat. Het labelen van wat een boom is en wat een verkeersbord is mensenwerk, wat dus in West-Afrika gebeurt – ‘onder slechte arbeidsomstandigheden en als schandalig misbruik van goedkope arbeid’, zegt Ruttkamp-Bloem.
Daarnaast zijn de data waar kunstmatige intelligentie gebruik van maakt veelal gebaseerd op Amerikaanse, Europese of Chinese talen en culturen, zegt ze. ‘En de gegevens die Big Tech in Afrika verzamelt, blijven daar niet. Afrikanen moeten het recht nemen om hun eigen data te bezitten.’
Kanta Dihal bevestigt de data-ongelijkheid. ‘Vertaalmachines werken perfect in een vertaling van het Nederlands naar het Engels.’ Dat komt doordat er op het internet heel veel goede vertalingen beschikbaar zijn in die talen. ‘Google Translate gebruikt documenten die de Europese Unie in al haar eigen talen door professionele vertalers laat omzetten. In andere talen, zoals die uit Afrika, staan er veel minder vertalingen op internet.’
Positieve mogelijkheden
Daarom is het belangrijk dat er meer aandacht komt voor kunstmatige intelligentie die in een Afrikaanse context past, zegt Ruttkamp-Bloem. Er zijn voorbeelden van initiatieven van onderop die daaraan werken, zegt ze, zoals het Zuid-Afrikaanse Masakhane-project, dat AI-onderzoekers samenbrengt die werken aan Afrikaanse talen. ‘Vertalen, ook van spraak naar tekst, wordt steeds belangrijker, ook in het onderwijs en de wetenschap. Als dat alles vooral goed werkt in het Engels, maar niet in andere talen, dan vergroot dat de ongelijkheid.’
Ze ziet meer Afrikaanse initiatieven voor ontwikkeling van kunstmatige intelligentie op en vóór het eigen continent. Zoals Data Science Nigeria, een trainingscentrum zonder winstoogmerk in Lagos dat jongeren klaarstoomt voor de nieuwe technologie. Het bedrijf Zipline begon bij een paar jonge gezondheidswerkers in Rwanda die een manier zochten om medicijnen bij patiënten in slecht bereikbare dorpen te krijgen – en dat met drones gingen doen. Het levert nu wereldwijd.
Dihal ziet ook toekomst in AI-toepassingen van onderop in lage-inkomenslanden. ‘Er is ongelijkheid in de toegang tot data en supercomputer tussen Noord en Zuid, ook in de wetenschap, maar we moeten misschien niet hameren op het gelijktrekken daarvan.’
Méér Big Data en supercomputers zijn niet per se de juiste oplossing. Het gebruik van al die data leidt ook tot problemen. ‘Het is misschien slimmer te bedenken wat je met kunstmatige intelligentie wilt bereiken en welke vragen je ermee wil beantwoorden. Misschien heb je geen grote dataset nodig, maar volstaan meer specifieke lokale data – die misschien niet door Facebook, maar door het lokale ziekenhuis gebruikt worden.’
Inclusieve ontwikkeling van AI
Er is een positieve rol voor kunstmatige intelligentie en algoritmes in Afrika, zegt ook Ruttkamp-Bloem, maar dat vergt wel betere regulering en een ethische toepassing ervan: ‘Dat geldt voor Big Tech, maar ook in wetenschappelijk onderzoek.’ Om te voorkomen dat er westerse vooroordelen en aannames in de toepassing van AI komen, is het nodig dat iedereen kan meepraten over de ontwikkeling ervan, zegt ze. ‘Teams die aan kunstmatige intelligentie werken, moeten inclusief zijn: divers in cultuur en nationaliteit.’
Noord-Zuid-samenwerking in de wetenschap gebeurt vaak ‘in een context van epistemische onrechtvaardigheid’, vervolgt ze. ‘Zuidelijk onderzoek wordt eerder gezien als onbetrouwbaar. Onderzoekers uit het Zuiden krijgen minder kans om te publiceren en conferenties worden zelden in Afrika gehouden. Wij worden geacht naar Europa, de VS of Dubai af te reizen, maar vaak is dat onbetaalbaar.’
De recente aanbevelingen van Unesco over ethiek in kunstmatige intelligentie kwamen wel op een inclusieve manier tot stand, zegt Ruttkamp-Bloem. ‘Dat was verfrissend.’ Zijzelf was voorzitter van de groep van 24 onderzoekers en diplomaten die de tekst opstelde, die eind vorig jaar door 193 lidstaten van de VN is aangenomen.
‘Er zitten perspectieven uit Noord en Zuid in. De waarden van de aanbevelingen zijn onder meer gebaseerd op het taoïsme, het boeddhisme en het ubuntu: de onderlinge verbondenheid van mensen staat centraal. Een toepassing van kunstmatige intelligentie moet aan die verbondenheid bijdragen – en die niet ondergraven.’

Emma Ruttkamp-Bloem
In de richtlijnen staan principes: dat kunstmatige intelligentie geen schade aan mensen mag berokkenen, mensenrechten moet respecteren, het milieu niet mag ondermijnen en qua mogelijkheden rechtvaardig verdeeld moet zijn. De richtlijnen zijn niet juridisch bindend, maar landen moeten wel jaarlijks verslag doen van de ontwikkelingen, op basis van monitoring en evaluatie, zegt Ruttkamp-Bloem.
Om het te laten werken is er meer bewustwording nodig bij het brede publiek van de kansen, maar ook van de gevaren van kunstmatige intelligentie, zegt ze. ‘Big Tech gedijt goed op onwetendheid. Het is belangrijk dat mensen begrijpen wat de gevaren zijn en verantwoordelijkheid nemen.’
Zo zijn er in Rwanda al digitale ambassadeurs, jonge mensen die de dorpen in gaan om mensen uit te leggen wat de mogelijkheden, maar ook de bedreigingen zijn van nieuwe digitale technologieën. Dat je niet zomaar je data moet weggeven en dat er nepnieuws op je tijdlijn kan staan.
Voor die bewustwording ziet Ruttkamp-Bloem vooral een rol voor maatschappelijke organisaties. ‘Ik zie in Afrika steeds meer activisme rondom kunstmatige intelligentie ontstaan’, zegt ze, tot slot. ‘Het geheime wapen van de ethiek rond kunstmatige intelligentie is het maatschappelijk middenveld, als waakhond van de Big Tech-bedrijven.’
Uitgelichte afbeelding: Alexa Steinbrück / Better Images of AI / Explainable AI / CC-BY 4.0
De Engelstalige versie is te lezen op de website van NWO-WOTRO. Big Tech companies thrive on ignorance | NWO
Voor goed onderzoek naar inclusieve mondiale ontwikkeling is het essentieel om samenwerkingen gelijkwaardig op te zetten. In deze serie onderzoeken Vice Versa en WOTRO Science for Global Development de dynamiek van Noord-Zuid-samenwerking in de wetenschap. Wat gaat er goed en wat moet er beter? De reeks is een vervolg op een eerdere serie artikelen over de rol van wetenschappers in het publieke debat.
Eerlijke toegang tot gezondheid als beste geneesmiddel
Waar kan Nederland binnen haar coherentiebeleid de komende jaren het beste op inzetten als het gaat om het aanpakken van Vaccin- en Mondiale Gezondheidsongelijkheid? En hoe kunnen we dit zo concreet mogelijk vormgeven? Deze vragen staan centraal tijdens de tweede editie van Het Grote Coherentiedebat op vrijdagmiddag 8 december in Dudok, Den Haag. Het debat is ook online te volgen.
Lees artikelRozen in de woestijn
In het hart van de woestijn, waar de hoop niet breed is gezaaid, bewijst Desert Roses dat er bloemen op de meest onverwachte plaatsen kunnen bloeien: ze daagt de bestaande normen uit, binnen een gemeenschap die meisjes als kapitaal ziet – om voor een vroeg huwelijk in te zetten. In Kenia laat Rael Lomoti ze nu door het meisjesvoetbal de kracht van het onderwijs inzien. Een reportage.
Lees artikelDonkere wolken?
Zelfs rasoptimist Paul van den Berg ziet weinig sprankjes hoop als hij door de lens van ontwikkelingssamenwerking naar de aankomende Tweede Kamerverkiezingen kijkt. In deze blog legt hij uit waarom, maar eindigt hij toch nog met een zonnestraaltje achter de wolken.
Lees artikel