Sora 2 d'OpenAI : Le Générateur Vidéo Qui Filmerait N'importe Qui en Train de Voler
Par Victor Tangermann .Publié le
2025/10/02 13:47

Octobre. 02, 2025
Le nouveau rival de TikTok propulsé par Sora 2 d'OpenAI pourrait générer une vidéo du PDG de l'entreprise, Sam Altman, en train de faire les poches dans un magasin.
OpenAI vient de lancer une nouvelle application mobile – accessible pour l'instant uniquement sur invitation – conçue pour rivaliser avec TikTok en proposant un flux infini de « bouillie » générée par l'intelligence artificielle.
Cette application accompagne la dernière version du générateur IA de texte à vidéo et audio de l'entreprise, Sora 2, que ses concepteurs présentent comme étant « plus fidèle physiquement, plus réaliste et plus contrôlable que les systèmes précédents. »
Un clip de deux minutes célébrant cette annonce a été accueilli par des réactions majoritairement négatives, les internautes le qualifiant de « dérangeant » et de « sans âme ».
Pire encore, la facilitation de la génération de vidéos photoréalistes par l'IA soulève de graves implications, notamment en matière d'usurpation d'identité.
Ironiquement, Gabriel Petersson, un développeur de Sora chez OpenAI, a lui-même montré à quel point il était facile de générer des images de vidéosurveillance de n'importe qui – en l'occurrence, le PDG d'OpenAI, Sam Altman – « en train de voler [des cartes graphiques] chez Target. »
Le clip montre Altman se faisant interpeller par un agent de sécurité après avoir tenté de quitter le magasin avec une boîte de GPU – une blague visant à se moquer des tentatives frénétiques de l'entreprise pour sécuriser du matériel d'IA à coups d'offres de plusieurs milliards de dollars. Ce matériel spécialisé est devenu une denrée extrêmement prisée, le fabricant de puces Nvidia ayant annoncé un partenariat de 100 milliards de dollars avec OpenAI la semaine dernière.
Mais au-delà de la taquinerie légère envers un cadre technologique, cette vidéo dépeint un tableau dystopique d'un avenir où n'importe qui pourrait être facilement accusé d'un crime qu'il n'a pas commis.
Des implications judiciaires alarmantes
Les observateurs ont rapidement souligné que la gaffe de Petersson – suivie de plusieurs autres vidéos d'Altman dormant sur une chaise de bureau ou faisant danser des gens sur un quai de gare – était perçue comme un manque total de sensibilité.
« Les employés d'OpenAI sont très enthousiastes à l'idée que leur nouvel outil d'IA puisse créer d'excellentes fausses vidéos de personnes commettant des crimes, et ils ont manifestement bien réfléchi à toutes les implications de cela », a posté sur Bluesky Drew Harwell, journaliste au Washington Post.
« Chaque avocat de la défense dispose désormais d'une requête pré-écrite concernant toute preuve vidéo, je vois », a commenté un autre utilisateur.
Nous avons déjà été témoins de cas où les forces de l'ordre ont utilisé la reconnaissance faciale assistée par l'IA pour identifier des auteurs, malgré des inexactitudes flagrantes de cette technologie.
Comme l'a rapporté le WaPo plus tôt cette année, des policiers à Saint-Louis ont utilisé cette technologie pour monter un dossier contre un père de quatre enfants de 29 ans, identifié par une application d'IA, bien qu'ils aient été avertis qu'elle « ne devait pas être utilisée comme seule base pour toute décision. » Bien que l'affaire ait finalement été classée, les experts craignent que cela ne crée un précédent inquiétant.
L'utilisation d'applications d'IA pour transcrire les vidéos des caméras corporelles a également soulevé des inquiétudes, car cette technologie pourrait exacerber les problèmes existants au sein des forces de l'ordre, notamment le racisme et le sexisme.
Désormais, avec l'avènement de puissants générateurs IA de texte à vidéo, comme Sora 2, il devient encore plus facile de placer une cible sur les lieux d'un crime qu'elle n'a jamais visité.
Les promesses de garde-fous d'OpenAI
De son côté, OpenAI affirme que la fonctionnalité de « caméo » (apparition) de sa nouvelle application – qui permet de se « glisser directement dans n'importe quelle scène Sora » – protégera les gens ordinaires contre l'apparition de leur image dans des vidéos générées par l'IA.
« Avec les caméos, vous contrôlez votre image de bout en bout avec Sora », peut-on lire dans l'annonce de l'entreprise. « Vous seul décidez qui peut utiliser votre caméo, et vous pouvez révoquer l'accès ou supprimer toute vidéo qui l'inclut à tout moment. »
« Les vidéos contenant vos caméos, y compris les brouillons créés par d'autres personnes, sont consultables par vous à tout moment », a promis OpenAI.
Notez ce sujet