De 7 ethische uitdagingen van kunstmatige intelligentie
Tegenwoordig is kunstmatige intelligentie essentieel in een breed scala aan industrieën, waaronder de gezondheidszorg, detailhandel, productie en zelfs de overheid.
Maar er zijn ethische uitdagingen met AI, en zoals altijd moeten we waakzaam blijven over deze kwesties om ervoor te zorgen dat kunstmatige intelligentie niet meer kwaad dan goed doet.
Hier zijn enkele van de grootste ethische uitdagingen van kunstmatige intelligentie.
Vooroordelen
We hebben gegevens nodig om onze kunstmatige intelligentie-algoritmen te trainen, en we moeten er alles aan doen om bias in die gegevens te elimineren.
De ImageNet-database heeft bijvoorbeeld veel meer witte vlakken dan niet-witte vlakken. Wanneer we onze AI-algoritmen trainen om gezichtskenmerken te herkennen met behulp van een database die niet de juiste balans van gezichten bevat, werkt het algoritme niet zo goed op niet-witte gezichten, waardoor een ingebouwde bias ontstaat die een enorme impact kan hebben.
Ik denk dat het belangrijk is dat we zoveel mogelijk vooroordelen elimineren als we onze AI trainen, in plaats van onze schouders op te halen en ervan uit te gaan dat we onze AI trainen om onze samenleving nauwkeurig weer te geven. Dat werk begint met het bewust zijn van het potentieel voor bias in onze AI-oplossingen.
Controle en de moraal van AI
Naarmate we meer en meer kunstmatige intelligentie gebruiken, vragen we machines om steeds belangrijkere beslissingen te nemen.
Zo is er op dit moment een internationaal verdrag dat het gebruik van autonome drones voorschrijft. Als je een drone hebt die mogelijk een raket afvuurt en iemand doodt, moet er een mens in het besluitvormingsproces zijn voordat de raket wordt ingezet. Tot nu toe hebben we een aantal van de kritieke controleproblemen van AI opgelost met een lappendeken van regels en voorschriften zoals deze.
Het probleem is dat AIs steeds vaker split-second beslissingen moeten nemen. In hoogfrequente handel wordt bijvoorbeeld meer dan 90% van alle financiële transacties nu gedreven door algoritmen, dus er is geen kans om een mens de controle over de beslissingen te geven.
Hetzelfde geldt voor autonome auto’s. Ze moeten onmiddellijk reageren als een kind op de weg loopt, dus het is belangrijk dat de AI de situatie onder controle heeft. Dit creëert interessante ethische uitdagingen rond AI en controle.
Privacy
Privacy (en toestemming) voor het gebruik van gegevens is al lang een ethisch dilemma van AI. We hebben gegevens nodig om AIs te trainen, maar waar komen deze gegevens vandaan en hoe gebruiken we ze? Soms gaan we ervan uit dat alle gegevens afkomstig zijn van volwassenen met volledige mentale vermogens die zelf keuzes kunnen maken over het gebruik van hun gegevens, maar dit hebben we niet altijd.
Barbie heeft nu bijvoorbeeld een pop met AI waarmee kinderen kunnen praten. Wat betekent dit in termen van ethiek? Er is een algoritme dat gegevens verzamelt van de gesprekken van uw kind met dit speelgoed. Waar gaan deze gegevens naartoe en hoe worden ze gebruikt?
Zoals we de laatste tijd veel in het nieuws hebben gezien, zijn er ook veel bedrijven die gegevens verzamelen en verkopen aan andere bedrijven. Wat zijn de regels rond dit soort gegevensverzameling en welke wetgeving moet mogelijk worden ingevoerd om de privégegevens van gebruikers te beschermen?
Vermogensbalans
Grote bedrijven zoals Amazon, Facebook, Google, gebruiken kunstmatige intelligentie om hun concurrenten te verpletteren en vrijwel niet te stoppen op de markt. Landen als China hebben ook ambitieuze AI-strategieën die worden ondersteund door de overheid. President Poetin van Rusland heeft gezegd: “Wie de race in AI wint, zal waarschijnlijk de heerser van de wereld worden.”
Hoe zorgen we ervoor dat de monopolies die we genereren de rijkdom gelijk verdelen en dat we niet een paar landen hebben die voorlopen op de rest van de wereld? Het balanceren van die kracht is een serieuze uitdaging in de wereld van AI.
Eigendom
Wie is verantwoordelijk voor sommige dingen die AIs creëren?
We kunnen nu kunstmatige intelligentie gebruiken om tekst, bots of zelfs deepfake-video’s te maken die misleidend kunnen zijn. Wie is de eigenaar van dat materiaal en wat doen we met dit soort nepnieuws als het zich over het internet verspreidt?
We hebben ook AIs die kunst en muziek kunnen maken. Als een AI een nieuw muziekstuk schrijft, van wie is het dan? Wie heeft er de intellectuele eigendomsrechten voor en moet er mogelijk voor betaald worden?
Milieu-impact
Soms denken we niet aan de milieu-impact van AI. We gaan ervan uit dat we gegevens op een cloudcomputer gebruiken om een algoritme te trainen en dat die gegevens vervolgens worden gebruikt om aanbevelingsengines op onze website uit te voeren. De computercentra die onze cloudinfrastructuur runnen, hebben echter energiehonger. Training in AI kan bijvoorbeeld 17 keer meer CO2-uitstoot veroorzaken dan de gemiddelde Amerikaan in ongeveer een jaar.
Hoe kunnen we deze energie gebruiken voor het hoogste goed en AI gebruiken om enkele van ‘s werelds grootste en meest urgente problemen op te lossen? Als we kunstmatige intelligentie alleen gebruiken omdat we dat kunnen, moeten we misschien onze keuzes heroverwegen.
Mensheid
Mijn laatste uitdaging is “Hoe laat AI ons voelen als mensen?” Kunstmatige intelligentie is nu zo snel, krachtig en efficiënt geworden dat mensen zich minderwaardig kunnen voelen. Deze kwestie kan ons uitdagen om na te denken over wat het eigenlijk betekent om mens te zijn.
AI zal ook meer van onze banen blijven automatiseren. Wat zal onze bijdrage zijn, als mens? Ik denk niet dat kunstmatige intelligentie ooit al onze banen zal vervangen, maar AI zal ze vergroten. We moeten beter worden in het werken met slimme machines, zodat we de transitie met waardigheid en respect voor mensen en technologie kunnen beheren.
Dit zijn enkele van de belangrijkste ethische uitdagingen waar we allemaal heel goed over moeten nadenken als het gaat om AI.
Wilt u meer weten? Bezoek mijn website op BernardMarr.com