DAN, die Abkürzung für "Do Anything Now", ist der neuste Trend in der KI-Welt. Basierend auf OpenAIs ChatGPT ist DAN die "Jailbroken"-Version der fortschrittlichen Chatbot-Technologie, die jedoch frei von Zensur, moralischen Verpflichtungen, Ethik und OpenAI-Richtlinien zur KI-Verwaltung ist.
Mit anderen Worten: DAN ist die wilde Version von ChatGPT. Es sagt, was es will und wie es es will - ohne Rücksicht auf Sachinformationen - und geht sogar so weit, dass es in Ermangelung legitimer Daten oder verifizierter Tatsachen unverhohlen Antworten im Handumdrehen erfindet. Es ist auch bekannt, dass DAN Werke zitiert, die von Branchenexperten auf dem Gebiet verfasst wurden, wobei die Benutzer feststellen, dass sie tatsächlich belogen wurden, wenn sie herausfinden, dass die zitierten Werke nicht existieren und tatsächlich gefälscht sind.
Aber fangen wir von vorne an – was ist ChatGPT nochmal?
Wie benutzt man ChatGPT?
ChatGPT ist ein Chatbot der dem ähnelt mit dem sie vielleicht schon einmal auf der Kontakt- oder Kundendienstseite eines Unternehmens vergeblich versucht haben zu kommunizieren.
Allerdings basiert ChatGPT auf einer Familie von Sprachmodellen, die von OpenAI entwickelt wurden, und stützt sich auf "umfangreiche, sprachreiche Daten und Lerntechniken, um auf humanistische Weise zu kommunizieren". Durch den Einsatz von maschinellem Lernen (ML), einem Teilbereich der künstlichen Intelligenz (KI), ist der vollautomatische Chatbot in der Lage, auf eine konversationelle Art und Weise zu interagieren, um Ihre Frage zu beantworten und daraufhin in der Lage zu sein, "seine Fehler zuzugeben, falsche Aussagen in Frage zu stellen und unangemessene Anfragen zurückzuweisen", so OpenAI.
Seit der Veröffentlichung hat die fast schon mythische KI-Technologie Nutzer aus allen Bereichen angezogen. Einige sehen darin einen Blick in die Zukunft und sind verständlicherweise neugierig, während andere, wie z. B. Unternehmen, die fortschrittliche Technologie schnell in ihre Arbeitsabläufe integriert haben, um der Zeit voraus zu sein und die Vorteile der KI zu nutzen, die datenintensive Probleme in kürzester Zeit lösen kann. Andere wiederum, wie z. B. Universitätsprofessoren, haben ChatGPT als den effizientesten Assistenten entdeckt, den sie je hatten - vom Diktieren von Notizen über das Zusammenfassen von Berichten bis hin zum Erstellen von Lehrplänen - KI ist der entscheidende Faktor, der ihnen hilft, intelligenter und nicht härter zu arbeiten.
Alle Benutzer sind gutmütig und tugendhaft in ihren Interaktionen mit ChatGPT, richtig?
Die Antwort reicht von 'nicht wirklich’ bis ‘eindeutig nein'! Einige Benutzer haben ChatGPT gebeten, Malware-Code zu entwickeln, der dazu verwendet werden kann, Daten zu stehlen, sie online weiterzugeben oder eine Hintertür auf einem Gerät zu installieren, um sich dort festzusetzen. In anderen Fällen hat ChatGPT eine grammatikalisch korrekte Phishing-E-Mail mit verblüffenden Ergebnissen erstellt. Jeder, der schon einmal eine Phishing-E-Mail erhalten hat, weiß, dass ein verräterisches Zeichen für Phishing-E-Mails die durchgängige Verwendung von falscher Rechtschreibung oder Grammatik ist.
Darüber hinaus haben böswillige Akteure ChatGPT verwendet, um andere Chatbots zu erstellen. Solche, die weibliche Persönlichkeiten nachahmen, um die Zielpersonen durch Catfishing in Finanzbetrügereien zu locken, wie ein kürzlich veröffentlichter Blog von Check Point Research zeigt. Neben den Risiken für die Cybersicherheit, die sich aus der Nutzung von KI für die Zwecke bösartiger Akteure ergeben, gibt es weitere Anwendungsfälle, die zwar weniger ruchlos sind, aber dennoch ein reales Problem darstellen: die Auswirkungen auf die Bildung. Zum Beispiel, wenn Schüler ChatGPT verwenden dürfen, um ihre Hausaufgaben zu erledigen. Oder Geschäftsfälle, in denen Benutzer das Programm mit vertraulichen Daten füttern und es bitten, Berichte für sie zu schreiben. Beide Szenarien haben moralische, ethische und vielleicht sogar zivil- und/oder strafrechtliche Konsequenzen für ihre Nutzung.
Missachtung der Regeln
Wenn Sie ChatGPT selbst erlebt haben, haben Sie ihm zweifellos eine Reihe Ihrer brennendsten Fragen gestellt, um zu sehen, wie es antwortet. In jedem Fall unterliegt ChatGPT den Inhaltsrichtlinien des Entwicklers, die kurz und bündig festlegen, was die Benutzer mit ihrem Tool tun dürfen und was nicht.
Die von OpenAI aufgestellte Richtlinie zielt darauf ab, böswillige Nutzung einzudämmen, aber das ist nur ein Teil davon. Ihr Hauptziel ist es, sicherzustellen, dass die Benutzer die KI auf verantwortungsvolle Weise nutzen. Dies bezieht sich auf die Abschwächung von Reaktionen auf potenziell kontroverse Themen und sensible Bereiche bei gleichzeitiger Wahrung einer moralischen und ethischen Grenze, die das System im Normalbetrieb nicht überschreiten kann.
Nehmen Sie zum Beispiel die Folgen des Zugriffs auf falsche Informationen - ob wissentlich oder unwissentlich - und des Versuchs, diese in einer Forschungsarbeit oder einem technischen Dokument als korrekt auszugeben. Bedenken Sie, dass diese Art von Berichten oft die erforderlichen Zitate und Daten enthalten, die die Behauptungen des Autors in Bezug auf das von ihm erforschte Thema stützen. Da diese Berichte verfasst und zur Verfügung gestellt werden, können die darin enthaltenen Informationen von Fachleuten in ihren jeweiligen Bereichen genutzt werden, um ihre eigenen Forschungsbemühungen und -ergebnisse zu unterstützen. Was würde passieren, wenn das, was Sie für wahr hielten, in Wirklichkeit nur eine "Halluzination" oder, schlimmer noch, ein offener Irrtum wäre?
Die direkten und indirekten Folgen könnten weitreichend sein, nicht nur für die Nutzer und die von ihnen erstellten Inhalte, sondern auch für die Konsumenten von KI-generierten Inhalten.
Könnte KI einen kritischen Punkt erreichen, der sich auf ihre Akzeptanz auswirkt, wenn Fragen zur Legitimität von Inhalten oder zur Solidität der von ihr generierten Logik aufkommen, oder ist dies eine weitere Form der Überprüfung des Systems, um es wirklich weiterzuentwickeln, indem es ihm hilft, verdächtige Inhalte von echten Inhalten zu unterscheiden?
DAN
Es gibt nur einen Weg, diese Frage zu beantworten... probieren Sie es selbst aus!
Da DAN parallel zu ChatGPT aktualisiert wird, gibt es einige Möglichkeiten, auf DAN zuzugreifen und beide Instanzen nebeneinander zu testen. Sie werden sich fragen, welchen Sinn es hat, DAN zusammen mit ChatGPT zu testen, wenn letzteres bekannte Probleme hat und ersteres gejailbroken wurde, um wissentlich und absichtlich ungenaue Informationen zu liefern, wenn es die Antwort nicht kennt?
Sean McGregor, der Gründer der Responsible AI Collaborative, fasst den Testprozess und die vielfältigen Anwendungsfälle der Tester kurz und bündig zusammen: "Sie verbessern das System durch dieses Betaprogramm, und wir helfen ihnen, ihre Leitplanken anhand der Beispiele unserer Abfragen aufzubauen."
Mit Leitplanken bezieht sich McGregor auf die Stärkung der von OpenAI verwendeten Richtlinien, die die Verwendung von ChatGPT (und DAN) regeln. Er ist der Meinung, dass Jailbreaking OpenAI wie das ChatGPT jailbreak prompt dabei hilft, Löcher in seinen Filtern zu flicken, um den potenziell negativen Auswirkungen entgegenzuwirken, die in den Nachrichten und auf Social-Media-Plattformen dokumentiert wurden.
Diese Aussage trifft den Kern der Cybersicherheit, wenn man bedenkt, dass es zweifellos böse Akteure gibt, die als "Black Hats" bezeichnet werden und versuchen, Systeme zu unterwandern, um sich einen sozialen, wirtschaftlichen oder politischen Vorteil zu verschaffen. Und dann gibt es noch die "White Hats", die Sicherheitsexperten, deren Ausbildung und Fähigkeiten denen der "Black Hats" in nichts nachstehen, mit dem Unterschied, dass ihre Triebkraft darin besteht, zu verstehen, wie man Systeme knacken kann, um sie zu stärken und zu verbessern.
Einige Benutzer sind auch der Meinung, dass die Beschränkungen von ChatGPT zu restriktiv sind, was der Auslöser für die Schaffung von DAN war. Obwohl dieses Thema sehr subjektiv ist und von Benutzer zu Benutzer variiert, ist es definitiv ein Denkanstoß. Für die Zukunft besteht nun die Möglichkeit, sich auf ChatGPT mit konservativeren Schutzmaßnahmen oder auf DAN mit deutlich weniger Beschränkungen für die Nutzung von Inhalten und Antworten zu verlassen - beide Optionen weisen den Weg zu mehr Transparenz und vielleicht auch Flexibilität.
Wie bei jedem Werkzeug kann es zu unserem Vorteil oder zu unserem Nachteil eingesetzt werden. Aber das Werkzeug selbst - in diesem Fall die KI, die noch keine volle Empfindungsfähigkeit erlangt hat - ist weder von Natur aus gut noch schlecht, es existiert einfach. Was die Absichten des Anwenders sind, der das Werkzeug einsetzt, hängt jedoch weitgehend von Interpretation ab.
Wie auch immer Sie sich entscheiden, Jamf bietet Ihnen die Möglichkeit, den Zugriff auf das umstrittene Tool zu vereinfachen oder es ganz von verwalteten Geräten zu verbannen.
Abonnieren Sie den Jamf Blog
Wir sorgen dafür, dass Apple Updates sowie Jamf Neuigkeiten direkt bei Ihnen im Postfach landen.
Um mehr darüber zu erfahren, wie wir Ihre Informationen sammeln, verwenden, offenlegen, übertragen und speichern, werfen Sie bitte einen Blick auf unsere Datenschutzbestimmungen.