Entre deepfakes et vrais humains, la majorité des observateurs ne font pas la différence

Lors d’une étude récente, un panel de cobayes s’est montré incapable de distinguer les deepfakes des vrais humains. Pire : ceux-ci ont même semblé plus réalistes selon certaines métriques !

Ces dernières années, personne n’a pu échapper au phénomène des deepfakes, ces vidéos altérées pour faire ressembler un personnage à quelqu’un d’autre. Cette technologie continue encore et toujours de progresser, et les réseaux neuronaux qui s’en chargent sont aujourd’hui capables de produire des résultats plus vrais que nature…. et peut-être même un peu trop.

C’est en tout cas ce qui ressort à la lecture des travaux de chercheurs américains. Ces derniers ont testé 300 volontaires avec l’objectif de déterminer si, oui ou non, ils étaient en mesure de distinguer un visage entièrement synthétisé par une IA d’une véritable photo d’humain en chair et en os.

Chacun a du visionner un jeu de 128 images tirées d’un même pool de 400 images synthétiques, certaines réelles, certaines factices et synthétisées par l’IA. Elles étaient réparties équitablement en termes de diversité pour éviter tout biais raciste, sexiste. Et les résultats sont lourds de sens : ils ont déterminé qu’en moyenne, les participants étaient parvenus à identifier moins de la moitié des visages synthétiques, 48.2% pour être précis.

L’humain a de plus en plus de mal à faire la différence

Ce 1,8% d’écart par rapport à la moyenne pourrait sembler anecdotique, mais c’est une donnée loin d’être négligeable sur le plan mathématique. Car d’un point de vue strictement statistique, elle représente un point de basculement à grande échelle; cela signifie qu’en règle générale, ces visages artificiels deviennent tellement sophistiqués et réalistes qu’ils peuvent duper notre cerveau la majorité du temps.

Ces résultats sont corroborés par deux expériences complémentaires sur les mêmes sujets. Lors de la seconde, les chercheurs ont soumis le panel au même protocole, mais seulement après leur avoir dispensé un cours sur les indices qui peuvent trahir un deepfake. Et même avec cette “triche”, les participants ne sont parvenus à identifier que 59% des fausses images; un chiffre encore trop bas pour espérer identifier les faux de manière fiable.

Enfin, et c’est peut-être le résultat le plus impressionnant, les participants ont du attribuer une note de réalisme à chaque image. Sur cette échelle, 0 correspondait à un organisme qui ne ressemblerait pas du tout à un humain, tandis que le 10 désignait un vrai humain. En moyenne, ce score de réalisme était supérieur de 7,7%  pour les deepfakes !

Un risque gigantesque de désinformation massive

C’est une réalité qui peut être abordée de deux façons distinctes. D’un côté, les chercheurs reconnaissent qu’il s’agit d’un “vrai succès” en termes de recherche en intelligence artificielle. Et sachant à quel point les différentes applications de l’IA sont interconnectées, cela démontre également les progrès de cette technologie dans son ensemble, et pas seulement dans le cadre de cette niche.

Pourtant, les premières conséquences qui viennent à l’esprit sont loin d’être encourageantes. En effet, s’ils peuvent tout à fait servir de simples divertissements, c’est rarement le cas dans la réalité. En pratique, cette technologie est aussi très utilisée dans des contextes très difficilement défendables.

Par exemple, on ne compte plus les exemples de détournements de discours politiques, qu’ils soient bon enfant, dégradants, ou utilisés à des fins de désinformation. On peut aussi citer la pornographie à base de deepfakes qui peut faire des dégâts considérables pour les personnes dont l’identité a été ainsi usurpée.

Pour toutes ces raisons, les chercheurs estiment que les auteurs de ces programmes devront juger de la balance bénéfice-risque de ces systèmes. Cela impliquera de répondre à une question importante : faut-il vraiment développer cette technologie simplement parce que la possibilité existe, surtout avant d’avoir identifié un intérêt concret qui ne relève pas du divertissement ?

Un risque démultiplié par le contexte

Car comme l’expliquent les chercheurs, le revers de la médaille, c’est que “n’importe qui peut désormais créer du contenu synthétique convaincant sans connaissances spécialisées”. C’est donc une porte ouverte à de véritables désastres en termes de désinformation.

Imaginez simplement le contexte actuel autour de la Russie, où tous les acteurs sont sur le qui-vive et prêts à réagir au quart de tour; il suffirait qu’un petit malin réussisse à rendre viral un deepfake particulièrement convaincant d’un président en plein discours guerrier pour mettre le feu aux poudres sur Internet le temps que l’information soit débunkée.

Les chercheurs précisent aussi que le niveau de réalisme de ces deepfakes a aussi tendance à impacter les vraies photos. En effet, dans ce contexte où il devient de plus en plus difficile de faire la part des choses, on peut également se mettre à douter de la véracité de documents pourtant authentiques, ce qui peut avoir des effets tout aussi désastreux que l’inverse.

Le papier de recherche est disponible ici.

Note: This article have been indexed to our site. We do not claim legitimacy, ownership or copyright of any of the content above. To see the article at original source Click Here

Related Posts
Chrome tests a feature that groups pages visited by topics thumbnail

Chrome tests a feature that groups pages visited by topics

Google Chrome eksperimentiše sa nekoliko funkcija koje bi korisniku mogle pomoći da nastavi istraživanje neke teme i uporedi stranicu na kojoj se nalazi sa drugim rezultatima pretrage. Journeys funkcija bi mogla omogućiti više načina da se prati šta se pretražuje.Alatka automatski prikuplja stranice i informacije vezane za istu temu, što bi korisnika spasilo od ručnog…
Read More
Instagram TV is the platform’s replacement for IGTV thumbnail

Instagram TV is the platform’s replacement for IGTV

Reels will remain distinct from the new Instagram TV After being unavailable for nearly six hours yesterday, Instagram has announced that it’s rebranding its long-form video space IGTV as Instagram TV and will do away with the exclusive IGTV video format. Main Instagram feed videos can now be up to 60 minutes long, a duration…
Read More
Splinter group officially launches OpenTF fork of HashiCorp Terraform thumbnail

Splinter group officially launches OpenTF fork of HashiCorp Terraform

Earlier this month HashiCorp announced it was changing the open source license it uses for Terraform and its other developer tools. The change triggered an uproar in the open source community. On Friday, a splinter group announced it was developing an open source fork of Terraform, and officially launched the OpenTF project. “We completed all
Read More
Scientists use 15th century cannon replicas to test medieval gunpowder formulas thumbnail

Scientists use 15th century cannon replicas to test medieval gunpowder formulas

一个由化学家和历史学家组成的跨学科小组想更多地了解几个世纪以来各种火药的配方是如何演变的。研究人员在最近发表在ACS Omega杂志上的一篇论文中描述了他们的发现。他们甚至通过在西点军校射击场发射15世纪投石大炮的复制品来测试其中几个配方。 火药也被称为黑火药,从化学角度来说,它很简单。它是作为燃料的硫磺和木炭(碳)与硝酸钾(KNO3)的混合物,硝酸钾是一种氧化剂,也被称为硝石。黑火药最早于公元904年左右在中国用于战争,到13世纪末,其使用已遍及欧洲和亚洲。现代黑火药配方要求75%的硝石、15%的木炭和10%的硫磺。但几个世纪以来,中世纪的枪炮大师们尝试了许多不同的配方,其中许多包括樟脑、清漆或白兰地等添加剂,其目的至今仍不清楚。到14世纪末,制造商发现,人们可以通过一种湿磨工艺来改善火药的性能。当其他成分被研磨在一起时,会加入某种液体(通常是蒸馏酒),产生一种潮湿的糊状物。糊状物会被卷成球状,然后晒干,这些球在使用前会被战场上的炮手在研钵中压碎。所谓的蛇纹石干混火药在15世纪的欧洲最常使用。标准程序包括用研钵和铁杵将成分研磨在一起,将这些成分还原成细粉可能需要长达24小时。颗粒越小,混合越彻底,火药的燃烧就越迅速和有效。研究人员确定了在公元1336年至1449年之间中世纪文本中记录的20多种不同的配方,并按照这些配方制造自己的不同批次的火药。Riegner等人测试了蛇纹石和粟粒状样品,使用炸弹量热法来记录相对燃烧热和反应速率。他们使用差示扫描量热法来测量燃烧的开始(预燃),以及燃烧扩散的速度,并分析每种配方的残留物以确定燃烧的有效性。该小组还比较了不同的样品制备方法以及有添加剂和无添加剂的配方有效性,并进行了射程炮实验。研究小组发现,在公元1338年和1400年之间,配方中增加了硝石的比例,减少了木炭的数量。这将导致较低的燃烧热量,但对于战场上的中世纪炮手来说,也会更安全。1400年后,炮手们对相对成分进行了更多的调整,稍微减少了硝石,而明显增加了硫磺和木炭,也许是为了在炮手安全和燃烧热量之间找到最佳平衡。很明显,中世纪的枪炮大师至少在某些方面已经对影响火药装填有效功率输出变量有了坚实了解,包括成分的纯度、木炭的品种、颗粒大小和混合方法。
Read More
Google “ataca” vulnerabilidade crítica no Android 12 thumbnail

Google “ataca” vulnerabilidade crítica no Android 12

Uma falha “crítica” de segurança que colocou milhões de dispositivos Android em risco foi corrigida pela Google. A vulnerabilidade, que foi descoberta por investigadores da Check Point Software Technologies, poderia ter permitido que os atacantes assumissem remotamente o controlo dos dispositivos. Embora a correcção só esteja disponível para o Android 12, a Google diz que…
Read More
Index Of News
Total
0
Share