Nieuws

Verenigde Staten beregelen AI met wet uit 1950

Verenigde Staten
© iStock / E4C
Ook in de Verenigde Staten wil de overheid meer grip op AI. Daarvoor wordt een wet uit 1950 weer bovengehaald.

Sinds de lancering van ChatGPT in 2023 is er een heuze AI-hype aan de gang. Steeds meer bedrijven komen met generatieve AI-producten op de proppen. Europese regulatoren bepaalde met de AI Act al bepaalde scenario’s waarin het gebruik van artificiële intelligentie regelrecht verboden is, zoals voor biometrische identificatie. Daarnaast werden enkele veiligheidsmechanismen ingevoerd voor systemen als ChatGPT. Ook in de Verenigde Staten wensen regulatoren meer grip op de AI-markt, al voert het land daar geen nieuwe wet voor in.

Defense Production Act

In de Verenigde Staten loopt reeds een onderzoek naar de investeringen van grote techbedrijven in AI-startups. Dat onderzoek moet de FTC een duidelijk beeld helpen scheppen van de relaties tussen grote technologiebedrijven en de AI-aanbieders. Ook de regering van president Biden wenst meer op de hoogte te zijn van ontwikkelingen in het AI-landschap. Daarvoor kijkt de regering naar de Defense Production Act, een wet die in 1950 in het leven werd geroepen bij de aanvang van de Koreaanse Oorlog. De wet laat de president toe om informatie op te vragen bij AI-bedrijven.

AI-bedrijven moeten niet alle informatie aan de regering overmaken, maar moeten wel laten weten wanneer ze AI-modellen intensief gaan trainen. De regering wil dat alle projecten die met een bepaalde hoeveelheid rekenkracht gerealiseerd werden, ook gerapporteerd worden. Vanaf een AI-model meer dan een septiljoen zwevendepuntoperaties of FLOPS gebruikt, moet daar melding van gemaakt worden. Voor AI-modellen die met DNA aan de slag gaan ligt de limiet 1000 keer lager en is de wet dus strenger. Ook dan gaat het nog steeds om een sextiljoen FLOPS – een 1 met 36 nullen erachter.

Zijn FLOPS een flop?

Die grenzen kunnen wel nog een beetje opschuiven, en dat heeft goede redenen. Eerst en vooral is niet duidelijk hoeveel rekenkracht OpenAI en Google gebruiken om hun modellen te trainen. Dat maakt het erg moeilijk om de grens juist te plaatsen: geschat wordt dat GPT-4 zoveel rekenkracht net niet nodig had. Daarnaast kan de ontwikkeling van AI-systemen mettertijd efficiënter worden, waardoor minder rekenkracht nodig is om dezelfde resultaten te halen. Ook daarvoor kan de overheid de grens later wat naar beneden halen.

Rapportageplicht

AI-bedrijven moeten de overheid niet alleen van hun eigen activiteiten op de hoogte brengen. Het Amerikaanse Ministerie van Handel bevestigde al dat AI-bedrijven ook klantactiviteiten moeten rapporteren. Ook daarvoor wordt gekeken naar hoeveel rekenkracht de klanten precies gebruiken om AI-modellen te trainen. Bovendien zullen de AI-aanbieders ervoor moeten zorgen dat klanten zich terdege moeten identificeren. Bedrijven moeten die identiteit dan ook verifiëren, of ze lopen het risico om een boete te moeten betalen. De regelgeving treft buitenlandse bedrijven in het algemeen, maar werd in het leven geroepen om de Amerikaanse cloud af te schermen voor Chinese actoren.

Hoewel de Biden-administratie later in gang schoot dan de EU, lijkt de VS toch sneller te schakelen. Er moeten namelijk geen nieuwe wetten geschreven en gestemd worden om verplichtingen op te leggen aan AI-bedrijven. Biden hoeft slechts met een handtekening te bevestigen dat de ontwikkeling van AI een kwestie van nationale veiligheid is. Daarna kan de president bedrijven verplichten om informatie te delen. Dankzij de wet uit 1950 zou dat al vanaf volgende week kunnen.

Gerelateerde artikelen

Volg ons

69% korting + 3 maanden gratis

69% korting + 3 maanden gratis

Bezoek NordVPN

Business