Wouter Hoeffnagel - 20 maart 2024

Westerse en Chinese AI-onderzoekers pleiten voor gezamenlijke aanpak van AI-risico's

Westerse landen en China moeten samenwerken om existentiële risico's verbonden aan kunstmatige intelligentie (AI) te mitigeren. In een gezamenlijke verklaring roepen AI-onderzoekers uit zowel Westerse landen en China dan ook op tot meer samenwerking.

Westerse en Chinese AI-onderzoekers pleiten voor gezamenlijke aanpak van AI-risico's image

De onderzoekers delen hun gezamenlijke verklaring in de nasleep van het International Dialogue on AI Safety (IDAIS) in het Chinese Beijing. Zij trekken daarbij onder meer de vergelijking met de koude oorlog, toen wetenschappelijke samenwerking nodig was om een nucleaire catastrofe te voorkomen. De onderzoekers stellen dat op dit moment een vergelijkbare samenwerking nodig is om 'een catastrofe die kan voortkomen uit ongekende technologie' te voorkomen.

Rode lijnen

In de verklaring identificeren de onderzoekers een aantal rode lijnen die AI-systemen niet zouden moeten overschrijden. Zo zouden AI-systemen nooit in staat moeten zijn om zichzelf te kopiëren of verbeteren, zonder dat een mens hier expliciet toestemming of ondersteuning bij geeft. Ook pleiten de AI-onderzoekers ervoor AI-systemen nooit acties te laten uitvoeren die hun kracht of invloed kan vergroten. AI zou zijn makers daarnaast nooit verkeerd mogen inlichten over de kans dat zij een van de geïdentificeerde rode lijnen overschrijden.

De brief is ondertekend door diverse topmensen van AI-bedrijven. Denk daarbij aan Demis Hassabis, Lila Ibrahim en Shane Legg van Google DeepMind, Sam Altman en Ilya Sutskever van OpenAI, Dario Amodei van Anthropic, Igor Babuschkin van xAI en Kevin Scott en Eric Horvitz van Microsoft. Ook Microsoft-oprichter Bill Gates ondertekende de brief. De verklaring van de AI-onderzoekers is hier beschikbaar.