OpenAI ouvre la voie à l’utilisation de ses modèles à des fins militaires

0



Il y a encore quelques mois, OpenAI interdisait l’utilisation de ses modèles à des fins malveillantes. Cela incluait notamment toute activité illégale, la génération de contenu haineux, harcelant ou violent, la génération de malware, mais aussi toute activité présentant un risque élevé de préjudice physique ou économique, pour ne citer que ces cas.

Dans le cas d’une activité présentant un risque élevé de préjudice physique, OpenAI cite « développement d’armes », « militaire et guerre », « gestion ou exploitation d’infrastructures critiques dans les domaines de l’énergie, des transports et de l’eau », et « contenu qui promeut, encourage ou décrit des actes d’automutilation, tels que le suicide, les coupures et les troubles de l’alimentation ».


Usage militaire et guerre disparaissent du vocabulaire


Seulement voilà, le 10 janvier dernier, la firme a annoncé avoir « mis à jour [ses] politiques d’utilisation pour les rendre plus claires et fournir des conseils plus spécifiques aux services ». Et cette liste à puces détaillée qui regroupe l’ensemble des usages interdits des modèles de l’entreprise a ainsi disparue.

En lieu et place de celle-ci, se trouve un paragraphe dédié aux « Politiques universelles ». L’entreprise indique que chacun doit avoir la possibilité d’utiliser ses services comme bon lui semble « à condition de respecter la loi et de ne pas se faire de mal à soi-même, ni à autrui ». Par cette formule, la firme entend l’utilisation de ses services pour promouvoir le suicide ou l’automutilation, développer ou utiliser des armes, blesser autrui ou détruire des biens etc.


L’argument de la lisibilité mis en avant


Il est notable que ces nouvelles politiques dites « universelles » et applicables à tous les services de l’entreprise excluent désormais de façon claire et précise les termes militaire et guerre. Et pour cause : les applications dans les domaines militaire et de la guerre pourraient s’avérer nombreuses et pour le moins lucratives. Le Pentagone et les différentes organisations de renseignement américain sont évidemment fortement intéressés par de tels usages.

Dans une déclaration rapportée par TechCrunch, OpenAI se défend : « Nos politiques d’utilisation ne permettent pas que nos outils soient utilisés pour nuire à des personnes, développer des armes, surveiller les communications, ou blesser autrui ou détruire des biens. Il existe cependant des cas d’utilisation pour la sécurité nationale qui correspondent à notre mission. Par exemple, nous travaillons déjà avec la DARPA (Defense Advanced Research Projects Agency, ndlr) pour stimuler la création de nouveaux outils de cybersécurité afin de sécuriser les logiciels open source dont dépendent les infrastructures critiques et l’industrie. Il n’était pas clair que ces cas d’utilisation bénéfiques étaient autorisés sous la rubrique « militaire » dans nos politiques précédentes. L’objectif de notre mise à jour de politique est donc d’apporter de la clarté et de permettre d’avoir ces discussions ».


Une distinction subtile


Niko Felix, un porte-parole d’OpenAI, a souligné que même s’il existe toujours une interdiction générale de développer et d’utiliser des armes, la distinction entre « militaire et guerre » et « développement d’armes » est importante. En effet, l’armée ne consiste pas seulement à créer des armes, et les armes ne relèvent pas exclusivement du domaine militaire.

Sélectionné pour vous

Craintes de sanctions américaines contre Baidu après des révélations sur un projet de recherche de l'armée chinoise



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.