Sutskever i l’obsessió per una IA segura
El cofundador d’OpenAI trenca amb Sam Altman i crea la seva empresa de seguretat de superintel·ligència
Ilya Sutskever, un dels noms més prominents en el camp de la intel·ligència artificial, ha fet un nou pas endavant en la seva carrera fundant Safe Superintelligence, una empresa dedicada a desenvolupar superintel·ligència segura. La trajectòria de Sutskever és impressionant. Com a cofundador d’OpenAI el 2015, va tenir un paper crucial en el desenvolupament de tecnologies revolucionàries com ChatGPT. Tanmateix, la seva estada a OpenAI no va estar exempta de conflictes. El novembre del 2023, Sutskever va ser un dels membres de la junta que van votar per acomiadar el CEO Sam Altman, cosa que va desencadenar una crisi interna. Altman va ser restituït al cap d’una setmana, fet que va portar Sutskever a deixar la junta d’OpenAI i, finalment, abandonar l’empresa el maig del 2024.
En una entrevista a Bloomberg, Sutskever va explicar que la seva decisió de crear Safe Superintelligence es basa en la seva convicció que la seguretat de la IA és fonamental. “Per segura, ens referim a la seguretat en el sentit de la seguretat nuclear, no només en termes de confiança i seguretat”, va dir. Aquesta nova empresa té com a objectiu principal desenvolupar una superintel·ligència que no perjudiqui la humanitat a gran escala.
Safe Superintelligence compta amb la col·laboració de Daniel Gross, antic soci de Y Combinator, i Daniel Levy, exenginyer d’OpenAI. Amb oficines a Palo Alto i Tel Aviv, pretén atraure inversions per assolir el seu ambiciós objectiu de crear una AGI (intel·ligència artificial general) segura.
El conflicte amb Altman a OpenAI va sorgir principalment per diferències en la visió sobre la velocitat i la seguretat en el desenvolupament de la IA. Mentre que Altman advocava per una publicació ràpida dels models, Sutskever era més cautelós, prioritzant la seguretat.
Safe Superintelligence ha anunciat plans per desenvolupar una superintel·ligència que tingui la capacitat de beneficiar la humanitat sense causar danys. Aquesta iniciativa representa un desafiament significatiu, però Sutskever està convençut que és possible aconseguir-ho amb els recursos i el suport adequats.
La influència de Sutskever en la IA és indiscutible. El seu focus en la seguretat nuclear de la superintel·ligència destaca la seva preocupació pels possibles riscos d’una IA descontrolada.