Jamf Blog
Two tin robots side by side.
Février 27, 2023 Par Jesus Vigo

Voici DAN, le jumeau maléfique de ChatGPT.

Basé sur ChatGPT d'OpenAI, DAN est la version jailbreakée de cette technologie de chatbot avancée, et elle fonctionne sans aucune contrainte. Mais est-ce réellement une bonne chose pour l'avancement de la technologie d'IA, ou est-ce plutôt un obstacle de plus à son utilisation grand public dans notre quotidien ?

DAN, abréviation de « Do Anything Now », est le dernier-né de la fièvre d'IA qui s'est emparée du monde. Basé sur ChatGPT d'OpenAI, DAN est la version jailbreakée de la technologie de chatbot avancée. DAN est affranchi des contraintes de la censure, des obligations morales et éthiques liées à la véracité des données et citations fournies, et des règles d'OpenAI qui régissent l'intendance de l'IA.

En d'autres termes, DAN est la version sauvage de ChatGPT. Il dit ce qu'il veut, comme il veut. Il ne se soucie pas de fournir des informations factuelles et n'hésite pas à inventer des réponses à la volée en l'absence de données légitimes ou de faits vérifiés.how DAN est également connu pour présenter des travaux comme ceux d'experts du secteur. Les utilisateurs découvriront plus tard qu'on leur a menti : ces travaux n'existent pas, c'est de la pure falsification.

Avant de nous plonger dans ces eaux potentiellement troubles, pour ceux qui n'ont pas encore pris leur remontant habituel, faisons un bref retour sur ChatGPT, si vous le voulez bien.

ChatGPT en bref

ChatGPT est un robot conversationnel, semblable à ceux que vous avez peut-être utilisés en contactant un fournisseur de services. Il répond à vos questions brûlantes ou vous oriente vers le bon service pour répondre à vos préoccupations.

À une exception près : ChatGPT repose sur une famille de modèles de langage développés par OpenAI. Il s'apppuie sur « de vastes corpus de données linguistiques et des techniques d'apprentissage pour communiquer de manière humaine. » En utilisant le machine learning (ML), un sous-domaine de l'intelligence artificielle (IA), ce chatbot entièrement automatisé est capable de converser pour répondre à un enchaînement de questions. Il sait également « admettre ses erreurs, contester les déclarations incorrectes et rejeter les demandes inappropriées, » selon OpenAI.

Breaking Bad : édition ChatGPT

Depuis sa création, les utilisateurs de tous horizons sont attirés par cette technologie d'IA quasi-mythique. Certains y ont vu un aperçu de l'avenir et manifestent une curiosité compréhensible. D'autres, entreprises en tête, ont rapidement intégré cette technologie avancée dans leurs workflows dans un effort concerté pour rester à l'avant-garde. Leur but : exploiter le pouvoir de l'IA traiter rapidement les problèmes associés à de grands volumes de données. D'autres encore, comme les professeurs d'université, ont trouvé dans ChatGPT l'assistant le plus efficace qu'ils aient jamais eu. Dicter des notes, résumer des rapports ou créer des plans de cours : l'IA est la pièce maîtresse qui les aide à travailler plus intelligemment.

Tous les utilisateurs sont bons et vertueux dans leurs interactions avec ChatGPT, nous sommes d'accord ?

La réponse va de « pas tellement » à « non, absolument pas » ! Certains ont demandé à ChatGPT de développer du code malveillant pour voler des données, les divulguer en ligne ou installer une porte dérobée sur un appareil pour établir une persistance. Dans d'autres cas, ChatGPT a produit un e-mail de phishing grammaticalement correct avec des résultats stupéfiants. Comme le savent tous ceux qui en ont déjà reçu, le phishing est souvent trahi par son orthographe approximatif ou sa grammaire douteuse.

Sachez alors que des acteurs malveillants ont utilisé ChatGPT pour créer d'autres chatbots. Ils imitent des profils féminins pour séduire des cibles et les escroquer financièrement – une pratique appelée catfishing. Le phénomène a été décrit dans un article de Check Point Research. Au-delà des risques de cybersécurité liés à l'exploitation de l'IA par des acteurs malveillants, d'autres cas d'utilisation, résolument moins néfastes, posent néanmoins un problème dans le monde réel. Et c'est particulièrement vrai dans le monde de l'éducation. On peut se demander, par exemple, si les élèves doivent être autorisés à utiliser ChatGPT pour faire leurs devoirs. En entreprise également, que se passe-t-il si un utilisateur fournit des données confidentielles à ChatGPT pour qu'il rédige un rapport ? Ces deux scénarios ont des conséquences morales, éthiques et peut-être même civiles, voire pénales.

Ignorer les règles

Si vous avez fait expérimenté ChatGPT, vous lui avez sans doute posé une série de questions brûlantes pour voir comment il y répondait. Dans tous les cas, ChatGPT est régi par la politique de contenu du développeur. Assez brève et directe, elle stipule ce que les utilisateurs sont autorisés ou non à faire avec son outil.

La politique, définie par l'OpenAI, atteint son but de freiner les utilisations malveillantes, mais elle couvre également d'autres aspects. Elle a pour principal objectif de garantir une utilisation responsable de l'IA. Elle cherche ainsi à atténuer les réactions à des sujets potentiellement controversés et à des domaines sensibles. Elle impose en outre une frontière morale et éthique que le système est incapable de franchir dans le cadre de son fonctionnement normal.

Considérons les ramifications d'un exemple très simple : imaginons que le chatbot accède à des informations erronées – sciemment ou non – et tente de les faire passer pour correctes dans un travail de recherche ou un document technique. Ces rapports doivent souvent contenir des citations et des données pour étayer les affirmations de l'auteur sur le sujet de sa recherche. Ensuite, quand ces rapports sont rédigés et publiés, les informations qu'ils contiennent peuvent être utilisées par des professionnels de différents domaines dans le cadre de leurs propres recherches et conclusions. Que se passerait-il si ce que vous pensiez être vrai n'était en fait rien d'autre qu'une « hallucination » ou, pire encore, une tromperie pure et simple ?

Les conséquences directes et indirectes pourraient être considérables. Et ce, non seulement pour les utilisateurs et le contenu qu'ils produisent, mais aussi pour les consommateurs de contenu généré par l'IA. De la même façon que notre propre société sombrerait dans l'anarchie si toutes les règles étaient instantanément supprimées, cette sorte de « frontière non surveillée » ne risque-t-elle pas finalement d'avoir un impact plus grave sur l'acceptation de l'IA à grande échelle et sur son utilisation dans des applications plus courantes ?

Les questions concernant la légitimité du contenu produit par l'IA ou le bien-fondé de sa logique peuvent-elles affecter son taux d'adoption ? Ou ne s'agit-il que d'une approche de plus pour évaluer le système et le développer en lui apprenant à discerner un contenu suspect d'un contenu authentique ?

DAN en liberté

Il n'y a qu'une seule façon de répondre à cette question : essayez-le !

DAN est mis à jour en même temps que ChatGPT, et il existe plusieurs façons d'accéder à DAN et de tester les deux instances en parallèle. Ceci étant dit, vous pouvez vous demander quel est l'intérêt de tester DAN en même temps que ChatGPT. Le second a des problèmes avérés, et le premier a été jailbreaké pour délivrer sciemment et intentionnellement des informations inexactes quand il ne connaît pas la réponse à une question.

Sean McGregor, fondateur du Responsible AI Collaborative, résume succinctement le processus de test et ses nombreuses applications pour les testeurs : « Ils améliorent le système via ce programme bêta et nous les aidons à développer des garde-fous à travers des exemples de requête. »

Par garde-fous, Sean McGregor entend le renforcement des règles appliquées par OpenAI pour encadrer l'utilisation de ChatGPT (et DAN). En effet, il estime qu'en compensation des retombées potentiellement négatives documentées dans les nouvelles et sur les plateformes de réseaux sociaux, « le jailbreaking aide OpenAI à combler les lacunes de ses filtres. »

On touche ici au cœur de la cybersécurité. Gardez en tête que des acteurs malveillants, les « black hats », tentent certainement de subvertir ces systèmes à des fins sociales, économiques ou politiques. Mais il y a aussi les « white hats », les experts en sécurité. Leur formation et leurs compétences sont équivalentes à celles de leurs homologues en noir, mais leur motivation est très différente : ils cherchent à casser les systèmes pour les renforcer et les améliorer.

Certains utilisateurs estiment également que les limites imposées à ChatGPT are sont trop restrictives, et c'est ce qui a encouragé la création de DAN. Si la question est certainement subjective, il y a sans aucun doute matière à réflexion. Il est désormais possible d'utiliser ChatGPT, aux protections plus strictes, ou DAN, qui limite nettement moins l'utilisation du contenu et les réponses. Ces deux solutions ouvrent la voie à une plus grande transparence et peut-être à une plus grande flexibilité.

Comme tout outil, il peut être utilisé à notre avantage ou à notre détriment. Mais l'outil sous-jacent, l'IA – qui n'a pas encore atteint la conscience – n'est ni bon ni mauvais intrinsèquement. Il existe, tout simplement. Les intentions de l'utilisateur qui s'en sert sont toutefois largement soumises à l'interprétation de la population qui l'entoure.

Quelle que soit votre position sur le sujet, Jamf sera à vos côtés, que ce soit en simplifiant l'accès à cet outil controversé – ou en le bannissant des appareils gérés.

Photo of Jesus Vigo
Jesus Vigo
Jamf
Jesus Vigo, Sr. Copywriter, Security.
S'abonner au blog

Recevez directement dans votre boîte mail les tendances du marché informatique, les mises à jour Apple et les actualités Jamf.

Pour en savoir plus sur la manière dont nous collectons, utilisons, partageons, transférons et protégeant vos informations personnelles, veuillez consulter notre Politique de confidentialité.