Jamf ブログ
Two tin robots side by side.
July 13, 2023 投稿者 Jesus Vigo

「ChatGPTの邪悪な弟」的存在のDANの正体とは

DANは、高度なチャットボット技術であるChat GPTのジェイルブレイク版で、ポリシーの制約を受けずに動作するのですが......これはAI技術の進歩にとって良いことなのでしょうか?それとも、AI技術を一般に普及させる上で問題をさらに複雑にするものなのでしょうか?

世界中を席巻するAIフィーバーに新たに加わったDAN(「Do Anything Now」の略)は、OpenAIの高度なチャットボット技術「ChatGPT」のジェイルブレイク版であり、検閲や道徳的義務、有効なデータや引用に関する倫理、あるいはAIの責任を定めるOpenAIのポリシーに準拠したコンテンツの生成といった制約から完全に解放されています。

つまり、DANはChatGPTの不正バージョンのようなものです。事実かどうかは関係なく言いたいことを好き勝手に言い、正当なデータや検証された事実がないにもかかわらず、あからさまにその場で答えをでっち上げることさえあります。DANはまた、業界の専門家が執筆したかのように著作物を引用することでも知られており、ユーザは引用された著作物が実際は存在せず、捏造されたものであったことを発見し、事実上騙されていたことに気づくのです。

こういった些か「いかがわしい」テクノロジーについて見ていく前に、まずはChatGPTとは何なのかについて説明しましょう。

ChatGPTの概要

ChatGPTは一言で言えばチャットボットで、ユーザの質問に答えたり、問い合わせに対して適切な部署に繋いでくれたりするサービスプロバイダのチャットボットとよく似ています。

ChatGPTが異なるのは、それがOpenAIによって開発された一連の言語モデルをベースに構築されており、「豊かな言語が含まれた膨大なデータと学習テクノロジーを活用して人間のようなスタイルでコミュニケーションを行う」という点です。人工知能(AI)のサブセットである機械学習(ML)を使用し、完全自動化されたチャットボットであるChatGPTは、会話形式でコミュニケーショを取りながら質問に答え、OpenAIによると、「間違いを認め、間違った発言に異議を唱え、不適切な要求を拒否する」といった対応もできます。

脱線することもあるChatGPT

その誕生以来、あらゆるバックグラウンドのユーザがこの神々しいAIテクノロジーに魅了されてきました。未来を垣間見るテクノロジーであると興味を抱く人がいる一方で、複雑なデータが絡む問題を短時間で解決するAIのパワーのメリットをいち早く享受し、時代の最先端を行くために、この高度なテクノロジーをすでにワークフローに導入しているエンタープライズも見られます。また、ChatGPTが人間のアシスタントよりも遥かに有能であると感じている大学教授もいます。口述筆記やレポートの要約、コース概要の作成など、AIは労力をかけずにスマートに働くための支援をしてくれるからです。

ここまで聞くと、ChatGPTとユーザのインタラクションはすべて善良かつ道徳的なものであるように思えますね?

ところが必ずしもそうでないケースも数多くあるのです。中には、データの盗難や流出、またはデバイスへのバックドアのインストールなどを可能にするマルウェアコードを生成するようChatGPTに要求するユーザも存在します。また、文法的に正しいフィッシングメールをChatGPTに生成させ、見事な成果を出した例もあります。フィッシングメールを受け取ったことのある人なら誰でも知っているように、文法やスペルの間違いでフィッシングメールであることに気づくケースは多々あります。

さらに、悪意のあるアクターがChatGPTを利用して他のチャットボットを作成した前例もあります。また、女性になりすまして金融詐欺を行うチャットボットが作成されたケースが、Check Point Researchチームの最近のブログで報告されています。悪意あるアクターの肩代わりをAIにさせることのサイバーセキュリティ上のリスクの他にも、悪意はないものの現実的な問題として教育への影響も考えられます。例えば、生徒がChatGPTに宿題をやらせるといったことが可能になったり、あるいはビジネスにおいて、ユーザがChatGPTに報告書を書いてもらうために機密データを渡してしまうといったケースも考えられます。どちらのケースも、道徳的、倫理的、そして場合によっては民事的、刑事的な責任が問われる可能性はゼロではありません。

ルールの無視

ChatGPTを触ってみたことがある方であれば、間違いなく、気になる質問を投げかけてどんな答えが返ってくるか試したことがあるはずです。ChatGPTは、ユーザが行なって良いことと行ってはならないことが簡潔に規定された、OpenAIのコンテンツポリシー に則っています。

OpenAIのポリシーは、悪意のある利用を抑制することを目的に設定されていますが、それだけではありません。ポリシーのもっとも重要な目的は、ユーザに責任を持ってAIを活用してもらうことです。これは、道徳的・倫理的な境界線を敷いて通常のオペレーションではそれを超えられないようにすると同時に、物議を醸す可能性のある話題やデリケートなトピックへの反応を抑制するためにあります。

例えば、故意であれ無意識であれ、不正確な情報にアクセスし、それを研究論文や技術ドキュメントで正しいものとして流用しようとした場合の影響について考えてみましょう。この種のレポートには、研究テーマに関する著者の主張を裏付ける、文献やデータの引用が含まれていることが多く、作成および公開されたのち、そこに含まれる情報は研究や調査を行うさまざまな分野の専門家によって利用されます。彼らが真実だと思って使用した情報が、実はAIの作り出した「幻覚」に過ぎなかったとしたら、あるいはもっと悪いことに、まったくの誤りだったとしたらどうなるでしょうか?

この場合の直接的・間接的な影響は、ChatGPTのユーザや生成されたコンテンツにとどまらず、コンテンツの消費者に幅広く及ぶ可能性があります。何の躊躇いもなくルールが無視されるような社会が陥る混乱状態は容易に想像が出来ますが、チャットボット技術が野放しにされている現状もまた、最終的にAIの一般的な受容拡大や普及に影響を与え得るより大きな障害につながる可能性があります。

AIが生成するコンテンツの正当性やロジックの健全性に疑問が投げかけられた場合、AIの採用率は限界に達してしまうのでしょうか?それとも、システムをさらに発展させて、疑わしいコンテンツと本物のコンテンツを見分けられるようにするためのきっかけになるのでしょうか?

DANの可能性を解き放つ

その質問に答える方法はひとつしかありません。そう、自分で試してみることです。

DANはChatGPTと同時にアップデートされるため、DANにアクセスして両方のインスタンスを並行して検証する方法は豊富にあります。 ですがそもそも、ChatGPTには既知の問題があり、DANは故意に不正確な情報を提供するために不正改造されていることを知ってなお、両者を一緒に検証する意味はあるのでしょうか?

Responsible AI Collaborativeの創設者であるショーン・マクレガー氏は、検証プロセスや多種多様なユースケースについてこう述べています。「OpenAIはこのベータプログラムを通じてより良いシステムの構築を試みており、我々はさまざまなユースケースを通じて浮上した問題の例を提供することで、彼らがガードレールを建てる手助けをしています」

ここで言う「ガードレール」とは、ChatGPT(またはDAN)がどのように使用されるべきかを規定した、OpenAIのポリシーの強化を指します。実際、ニュースやSNSプラットフォームで目にするネガティブな印象とは反対に、「ジェイルブレイク版にはむしろOpenAIのフィルタの穴を埋めるメリットがある」と彼は話しています。

社会的、経済的、政治的利益のためにシステムを破壊しようとする悪意のあるアクター(俗に「ブラックハット」と呼ばれる)が確実に存在することを考えれば、この発言はサイバーセキュリティの核心を突いていると言えるかもしれません。また、ブラックハットと同等の知識とスキルを持つセキュリティ専門家である「ホワイトハット」も存在し、彼らはシステムを強化し、より良いものにするという目標を原動力に、システムを破る方法を理解しようとしています。

また、DANが生まれたのはChatGPT に課された制限が厳しすぎることが原因であると考えるユーザもいます。このトピックに関しては、ユーザによって多種多様な考えが存在しますが、どの意見も非常に興味深いものばかりです。今後は、保守的な保護がなされたChatGPTを使用するか、もしくはコンテンツの使用や反応がほとんど制限されていないDANを使うかの2つの選択肢がありますが、どちらもさらに優れた透明性や場合によっては柔軟性も提供してくれるはずです。

どんなツールでもそうであるように、AIもまたメリットとデメリットの両方を含んでいます。まだ完全な自己意識を獲得していないAIは、本質的に善でも悪でもありません。ただ存在するだけです。しかし、 そのツールを使うユーザの意図をどのように解釈するかは、人それぞれです。

【Jamfなら、賛否両論あるこのツールへのアクセスを効率化することも、管理対象デバイスからのアクセスを完全に制限することも可能です。】

Photo of Jesus Vigo
Jesus Vigo
Jamf
Jesus Vigo, Sr. Copywriter, Security.
ブログ購読

マーケットトレンド、Apple の最新情報、Jamf のニュースをメールでお届けします。

当社がお客様の情報をどのように収集、利用、移転、および保存するかに関しては、プライバシーポリシーをご参照ください。