Direct naar artikelinhoud
NieuwsAI

OpenAI ontmantelt compleet team voor ‘verantwoorde AI’

Sam Altman, ceo van OpenAI.Beeld Andrew Caballero Neynolds / AFP

In hetzelfde tempo waarmee OpenAI nieuwe producten lanceert, ontstaat er telkens weer chaos binnen het bedrijf. Een aantal kopstukken vertrekt teleurgesteld na een ingrijpende en ideologische reorganisatie.

Wat is het belangrijkst? Zo snel mogelijk producten op de markt brengen om de concurrentie voor te blijven of zo voorzichtig mogelijk opereren? Bij OpenAI is deze fundamentele vraag al een tijdje een splijtzwam. Vorig jaar ging het op het nippertje goed, toen topman Sam Altman de laan uit werd gestuurd, maar al snel weer mocht terugkeren. Altman dient het belang om zijn bedrijf zo snel mogelijk te laten groeien.

Vorige week ging het alsnog fout, en nu zijn de scherven niet meer te repareren. Het andere kamp, dat van de veiligheid, heeft aan het kortste eind getrokken. De bom kwam, daags na de introductie van OpenAI’s nieuwste model GPT-4o, tot uitbarsting met het opstappen van medeoprichter Ilya Sutskever en Jan Leike.

De twee gaven sinds vorig jaar leiding aan het zogeheten superalignment-team. Dit is een heet hangijzer binnen de AI-wereld: als AI steeds geavanceerder en slimmer wordt, hoe zorgen we er dan voor dat de mens altijd aan de knoppen blijft?

Over één ding is iedereen het bij OpenAI wél eens: AI wordt uiteindelijk op alle vlakken slimmer dan de mens (zogeheten AGI, artificial general intelligence). “We hebben wetenschappelijke en technische doorbraken nodig om controle te blijven houden over AI-systemen die veel slimmer zijn dan wij”, zei OpenAI hier zelf vorig jaar zelf over. Sutskever en Leike kregen van Altman de sleutels in handen om dit onderzoek te doen. Het was van korte duur.

Lees ook

Praten met uw oma die al zeven jaar dood is? Dankzij artificiële intelligentie is het mogelijk

Alsof Scarlett Johansson naast je bed staat: spraakassistent van ChatGPT gniffelt, aarzelt of reageert verrast

In eerste instantie was het nog onduidelijk waarom de twee (en daarvoor al verschillende anderen) besloten OpenAI te verlaten, maar afgelopen weekend kwam de aap uit de mouw: Sam Altman besloot enkele weken terug het hele team op te heffen.

De ellende begon al wat eerder, stelt Leike op X: “De afgelopen maanden heeft mijn team tegen de wind in gevaren.” Het werd “steeds moeilijker” om hun werk te doen. Voor dit soort onderzoek is veel computerkracht nodig. Sam Altman besteedt dat volgens hem liever aan de teams die met de concrete producten bezig zijn.

Twitter bericht wordt geladen...

Leike ging naar eigen zeggen ooit naar OpenAI omdat dit “de beste plek ter wereld” was. “Ik ben het echter al geruime tijd oneens met de leiding van OpenAI over de kernprioriteiten van het bedrijf.” Het baart hem zorgen: “Het bouwen van machines die slimmer zijn dan mensen is een inherent gevaarlijke onderneming. OpenAI draagt ​​een enorme verantwoordelijkheid namens de hele mensheid.”

In een reactie op de klaagzang van Leike benadrukt Greg Brockman (ook medeoprichter) dat OpenAI veiligheid nog steeds heel belangrijk vindt. “We weten dat we niet elk mogelijk toekomstscenario kunnen voorstellen”, aldus Brockman, om eraan toe te voegen: we hebben dus rigoureuze testen nodig, een beveiliging van “wereldklasse” en een “zorgvuldige afweging bij elke stap”.

Twitter bericht wordt geladen...

Het verschil met de oude situatie: deze hele veiligheidskant is voortaan gewoon onderdeel van de teams die ook voor de producten zorgen.

De beslissing van OpenAI houdt de gemoederen binnen de AI-wereld flink bezig, waarbij iedereen zijn vertrouwde stellingen inneemt. Zo vindt de natuurkundige Max Tegmark de opheffing het perfecte voorbeeld bij zijn mening dat er nu toch echt een pauze op de ontwikkeling van AGI moet komen, terwijl Yann LeCun (hoogste AI-baas van Meta) benadrukt dat de komst van AGI nog altijd heel ver weg is: we hebben nog niet eens het begin van een systeem dat “slimmer is dan een huiskat”.