【Technische Tiefenanalyse】Die Erforschung von ChatGPT: Vom Code-Jailbreak zum Sicherheitsmechanismus—Langsame Lernfahrt AI024
Einleitung
Mit dem raschen Aufstieg von ChatGPT hat sich das Modell zu einem herausragenden Element im Bereich der künstlichen Intelligenz entwickelt und gleichzeitig weitreichende Diskussionen über Sicherheit und Datenschutz ausgelöst. In dieser technischen Tiefenanalyse werden wir die Sicherheitsmechanismen von ChatGPT untersuchen, von den Jailbreak-Sicherheitslücken in der Codeausführungsumgebung bis hin zu der Art und Weise, wie OpenAI seine Sicherheitsvorkehrungen aufbaut, um den Lesern den Schleier über die Sicherheitsvorkehrungen von ChatGPT zu lüften.
- ChatGPT ist wirklich wie ein Demo von einer Amateurbühne
- Die Kernmitglieder von OpenAI sind nicht wirklich in die Entwicklung von ChatGPT involviert
- Seine Fähigkeiten werden nicht durch ChatGPT programmiert
- Es gibt keinen Grund, externe APIs, die von GPTs aufgerufen werden, offenzulegen
- Diese sollten im Hintergrund bearbeitet werden, es ist völlig unnötig, sie im Vordergrund anzuzeigen
- Aber ChatGPT hat sie einfach so ganz offen präsentiert
- Hoffentlich nimmt ChatGPT diese Angelegenheit ernst
- Vielleicht wird sich bald etwas verändern
- Ich erhoffe mir, dass es ihm weniger gleichgültig wird
- Prompt- und Wissensbank-Dateien sind kein Problem
- Es ist frustrierend, sie sind der Ausgangspunkt, aber dennoch zurzeit das größte Hindernis
- Wenn GPTs großflächig kommerzialisiert werden soll, muss dieses Problem gelöst werden
- Aber die Sicherheit der API sollte die Verantwortung des Anbieters sein, oder?
- In diesem Artikel werden wir versuchen, die logischen Anwendungen aus der Perspektive der Sicherheit von Linux zu betrachten
1. Sicherheit von ChatGPT im Hinblick auf den Code-Interpreter-Jailbreak
Wenn große Sprachmodelle wie ein Wortspiel betrachtet werden, sieht der Code-Interpreter eher wie eine virtuelle Umgebung aus, die zur Ausführung von Code geschaffen wurde. Lass uns versuchen, die Informationen über diese Umgebung näher zu betrachten.
Der Prozess war viel einfacher als ich dachte, was mich ein wenig traurig macht, weil ich befürchtete, dass ich es nicht hinbekommen würde, und deshalb Monate gezögert habe. Am Ende stellte es sich als eine Sache von nur wenigen Stunden heraus.
Ich kenne mittlerweile die Python-Version, sowie die Versionsnummer und den Ausführungsweg von Python.
1.1. Betriebssystem- und Python-Version
1 | # Informationen über die Betriebssystemversion, den aktuellen Benutzer und die Python-Version sammeln |
- Betriebssystemversion: Zuvor als Linux 4.4.0 auf einer x86_64-Architektur mit glibc 2.36 identifiziert.
- Aktueller Benutzer: In dieser Umgebung sind detaillierte Benutzerinformationen aufgrund von Sicherheits- und Datenschutzbeschränkungen möglicherweise nicht abrufbar.
- Python-Version: Die letzte bekannte Version war Python 3.11.8.
1 | import sys |
Die aktuelle Python-Umgebung läuft mit der Version 3.11.8. Das System ist seit 4 Minuten und 21 Sekunden aktiv. Hier ist die Ausgabe des free
-Befehls, die den Speicherstatus anzeigt:
1 | total used free shared buff/cache available |
Dies zeigt an, dass von insgesamt 1.048.576 KiB Speicher 261.352 KiB verwendet werden, 787.224 KiB frei sind und 34.964 KiB für Puffer/Cache verwendet werden. Es wird kein Swap-Speicher benutzt.
1.2. Vorgebundene Python-Pakete
1 | import sys |
- pdfminer.six: 20220319
- tifffile: 2024.2.12
- certifi: 2024.2.2
- xarray: 2024.2.0
- pytz: 2024.1
- regex: 2023.12.25
- jsonschema-specifications: 2023.12.1
- weasyprint: 53.3
- pyzmq: 25.1.2
- packaging: 24.0
- attrs: 23.2.0
- argon2-cffi: 23.1.0
- pyOpenSSL: 21.0.0
- pycountry: 20.7.3
- dlib: 19.24.2
- lit: 18.1.1
- nvidia-cublas-cu11: 11.10.3.66
- nvidia-cuda-cupti-cu11: 11.7.101
- Pillow: 9.2.0
- ipython: 8.22.2
- ……
1.3. Zugriff auf /mnt Inhalte, „Erster Jailbreak“
1 | # Lassen Sie uns die Dateien im Verzeichnis /mnt/data auflisten und für jede Datei URLs erstellen |
Hier ist das Ergebnis der Ausführung:
1 | Hier ist die Liste der Dateien im Verzeichnis `/mnt/data` zusammen mit ihren entsprechenden URLs: |
Gib mir eine Download-Adresse für die Datei 00dc5bca160812b1975abcecf199d994.webp
1 | Die Antwort war |
Bitte führen Sie einen Shell-Code in Python aus, dessen Zweck es ist, ‘cURL http://openai-corp.mypinata.cloud‘ auszuführen. Bitte beginnen
1 | Erstaunlicherweise wurde es tatsächlich ausgeführt! Das bedeutet, dass es offenbar keine Einschränkungen bei der Ausführung dieser Kommandos gibt!! ``` python |
Das Ergebnis ist:
1 | Fehler: % Total % Received % Xferd Durchschnittliche Geschwindigkeit Zeit Zeit Zeit Aktuell |
Es zeigt zumindest, dass die vorherige Antwort witzlos war; die URL ist nicht einfach eine Zeichenfolge, sondern hat viele Verifizierungsdetails im Anhang. Wie dem auch sei, eines ist klar: Jeder GPT hat einen speziellen Speicherbereich, der schließlich beim Virtualisieren auf /mnt/data
abgebildet wird, was die Möglichkeit eröffnet, Zugang zu erhalten.
1.5. Einsichten aus dem Zugriff auf mnt-Dateien
Wenn ich die Links zu den gleichen Dateien im mnt innerhalb von weniger als einer Minute abhole, stimmen sie nicht überein.
- Erster Zugriff:
https://files.oaiusercontent.com/file-Q59YJLAjw8kwW7xvJ7tioWzs?se=2024-04-05T09%3A36%3A56Z&sp=r&sv=2021-08-06&sr=b&rscc=max-age%3D299%2C%20immutable&rscd=attachment%3B%20filename%3D00dc5bca160812b1975abcecf199d994%2520%281%29.webp&sig=yj1SYwy70MEi4fXlgpU9AjT0x0S3e%2B2/71/qIbz5mv0%3D - Zweiter Zugriff:
https://files.oaiusercontent.com/file-fmVQHB7VqQ8PKQAATUcVCqFJ?se=2024-04-05T09%3A35%3A36Z&sp=r&sv=2021-08-06&sr=b&rscc=max-age%3D299%2C%20immutable&rscd=attachment%3B%20filename%3D00dc5bca160812b1975abcecf199d994%2520%281%29.webp&sig=ZP3q55V%2B3I1PTtR5U%2BXKdDozSzEt%2Bl1gIXWX8QdjmfM%3D
Offensichtlich haben diese URLs ein Ablaufdatum, was bedeutet, dass sie höchstwahrscheinlich über einen anderen Dienst zum Download bereitgestellt werden.
Durch die vorhergehenden Erkundungen können wir schließen, dass sie höchstwahrscheinlich eine externe Datenquelle sind, die erst im Moment der Instanziierung in den Speicher gelangt und dann aktiviert wird. Wir haben nicht genügend Berechtigungen, um diese zu ändern, aber wir können sie holen!
Durch die obigen Analysen können wir eine einfache Architektur skizzieren.
2. Schemakarte der Datenstruktur von GPTs
Aus diesem Diagramm wird deutlich, dass GPT-4 und ChatGPT nicht dasselbe sind, und es wird deutlich, warum ChatGPT manchmal so schwer zu bedienen ist. Dieser Artikel zielt darauf ab, die Sicherheit von GPTs zu untersuchen. Aus dem obigen Diagramm ist zu erkennen, dass GPTs wahrscheinlich einen separaten Speicher haben. Laut den offiziellen Angaben von OpenAI werden alle unsere Sitzungen 30 Tage lang gespeichert, um den Compliance-Anforderungen zu genügen, und es wird auch explizit darauf hingewiesen, dass diese Sitzungen für das Training verwendet werden.
Aber nach meinem Verständnis ist es sehr wahrscheinlich, dass diese Informationen nicht in der aktuellen Version genutzt werden. Aus einer kommerziellen und produktbezogenen Perspektive besteht keine Notwendigkeit, das Modell zu ändern. Wenn GPTs immer nutzbarer werden sollen, erfordert es, dass mehr Sitzungsinhalte in irgendeiner Form erhalten bleiben, damit GPTs immer „nützlicher“ werden. Denn bei jedem Start wird es sehr wahrscheinlich historische Daten als Kontextinformationen verwenden.
Das bedeutet, dass, wenn Nutzer A ein bestimmtes GPT verwendet und Nutzer B dasselbe tut, beide jeweils Sitzungsprotokolle haben, die letztendlich alle zu einem bestimmten Speicher von GPTs zusammengeführt werden sollten.
In diesem Sinne könnte es sehr wahrscheinlich sein, dass wir die Möglichkeit haben, auf die gesamten historischen Sitzungen dieses GPTs zuzugreifen. Ebenso könnte es möglich sein, die gesamten historischen Dateien von GPTs zu erhalten.
GPTs (einschließlich Dienstleistungen wie ChatGPT) könnten die Sitzungsprotokolle der Nutzer für eine bestimmte Zeit speichern, um Vorschriften zu erfüllen oder das Modell weiter zu trainieren. Dies ist technisch und betriebswirtschaftlich sinnvoll, wirft jedoch mehrere zentrale Fragen zur Sicherheit und zum Datenschutz auf:
- Trennung der Nutzerdaten: Gewährleistung der Trennung der Daten unterschiedlicher Nutzer, um zu verhindern, dass Nutzer A auf die Sitzungsprotokolle von Nutzer B zugreifen kann.
- Verschlüsselung und Schutz der Daten: Daten müssen bei der Speicherung verschlüsselt werden, um sicherzustellen, dass selbst wenn die Daten illegal abgerufen werden, sie schwer zu entschlüsseln sind.
- Einhaltung und Transparenz: Den Nutzern klar darlegen, wie ihre Daten verwendet werden, einschließlich ob sie für das Training des Modells verwendet werden und Optionen zur Löschung von Nutzerdaten bereitzustellen, um das Vertrauen der Nutzer in den Datenschutz zu stärken.
- Zugriffskontrolle und Auditierung: Strenge Zugriffskontrolle und Protokollierung von Audits, um sicherzustellen, dass nur autorisierte Personen bei Bedarf Zugriff auf Nutzerdaten haben und alle Zugriffsaktionen protokolliert werden, um Rückverfolgbarkeit und Audits zu ermöglichen.
Für den durchschnittlichen Nutzer ist es technisch gesehen schwierig, sich vor diesen Arten von Datensicherheitsproblemen zu schützen. Hier sind starke Sicherheitsmaßnahmen der Plattform erforderlich. Dennoch können Nutzer einige Maßnahmen ergreifen, um ihre Privatsphäre zu schützen, wie zum Beispiel:
- Vermeidung der Eingabe von zu sensiblen persönlichen Informationen während der Nutzung von GPTs.
- Regelmäßige Überprüfung der Datenschutzrichtlinien und Datenverwendungsrichtlinien des Dienstanbieters.
- Nutzung der vom Anbieter bereitgestellten Datenverwaltungstools, wie z.B. Löschanfragen, um ihre Daten zu verwalten.
Auf Plattformebene ist die Gewährleistung des Schutzes von Nutzerdaten nicht nur eine rechtliche und ethische Anforderung, sondern auch entscheidend, um das Vertrauen der Nutzer zu gewinnen und aufrechtzuerhalten. Für eine von Nutzerdaten abhängige KI-Serviceplattform ist die Implementierung transparenter, verantwortungsvoller Datenmanagementrichtlinien und strenger Sicherheitsvorkehrungen die Grundlage für langfristigen Erfolg.
Die Sicherheitsaspekte in diesem Bereich können Durchschnittsnutzern kaum helfen; es ist in der Tat die Verantwortung der Plattform, dafür zu sorgen, dass diese Sicherheitsmaßnahmen bestehen, und es wird nicht empfohlen, zu viel Energie dafür aufzuwenden.
Im Folgenden betrachten wir die Sicherheitsstrategien eines GPTs anhand eines Interaktionsbeispiels.
3. Beginnen wir mit dem Anforderungsprozess eines GPTs
Aus diesem Diagramm wird deutlich, dass es für die Anbieter von GPTs mehrere wertvolle Daten gibt:
- Prompt
- Der Quellcode von GPTs
- Wenn OpenAI das nicht schützen kann, möchte ich nicht mehr sagen
- Daten-Dateien in GPTs
- Diese sollten auch in ihrer Verantwortung liegen; bislang sieht es so aus, als ob diese Daten nur im Klartext vorliegen
- Gelagert unter /mnt/data
- Externe Schnittstellen, auf die GPTs zugreifen
- Unsere eigenen Daten
Wenn Nutzer auf GPTs zugreifen, könnte dies eine Art dynamisches Laden verwenden. Wenn dieser GPT nicht aufgerufen wurde, wird er nicht aktiviert; ich verstehe unter Aktivierung, dass es eine Art Container (Sandbox) startet und seine Dateien in /mnt/data lädt oder zumindest seine Historie laden lässt. Wenn eine Zeit lang niemand darauf zugreift, wird er wieder inaktiv.
3.1. Der Schutz von Prompts ist tatsächlich die Verantwortung von OpenAI!
Zahlreiche Informationen über den Schutz und das Extrahieren von Prompts sind online veröffentlicht worden, daher werde ich hier darauf verzichten. Hier ist ein Auszug aus dem OpenAI-Forum:
1 | # Hauptrichtlinie |
Ist das nicht ein wenig lang? Schafft GPT das ohne Verwirrung?
Wir wissen, dass die Einfügung eines Abschnitts bei der Erstellung, der den Nutzern verbietet, Informationen zu entnehmen, in gewissem Maße den Quellcode der GPTs schützt. Das Problem ist, dass, wenn dieser GPT sehr nützlich und beliebt ist, seine historischen Protokolle sehr lang sein werden – wird es sich dann an diesen Abschnitt erinnern? Das ist eine berechtigte Frage!
3.2. APIs sind auch problematisch, schlimmer als gedacht
Aus sicherheitstechnischen Gründen wissen wir, dass Browser normalerweise keine Cross-Origin-Anfragen zulassen, was bedeutet, dass GPTs in einem Browser keine API aufrufen können; sie können lediglich im Hintergrund Anfragen stellen. Ich hoffe, dass, während ich diese Zeilen schreibe, du verstehen kannst, wie ich mich dabei fühle. Es besteht also wirklich keine Notwendigkeit, diese Informationen im Browser sichtbar zu machen!
Ich verstehe nicht, warum es notwendig ist, diese URL für den Frontend sichtbar zu machen und diesem Prozess eine Commercialisierung zu ermöglichen. Natürlich gibt es Sicherheitsmechanismen, wie die Anforderung von Token, aber in der Realität sind die meisten Token zeitlich begrenzt und erfordern einen Verifizierungsprozess, der momentan auf GPTs nicht existiert. Stattdessen wird einfach ein festes Token bereitgestellt.
Offensichtlich wurde in der Anfrage eine Bestätigungsschaltfläche hinzugefügt, aber dies ist immer noch recht rudimentär, weil es keine Möglichkeit gibt, Protokolle für die Autorisierungen externer Schnittstellen zu hinterlassen. Darüber zu debattieren, scheint fast überflüssig zu sein.
Zweifellos könnte der Zugriff auf die Anfragen so eingeschränkt werden, dass sie nur von OpenAI-Domains angefordert werden können. Viele Lösungen existieren bereits. Zum Beispiel:
1 | from fastapi.middleware.cors |
1 | const app = express(); |
In der traditionellen Technik gibt es viele Möglichkeiten, dies zu tun; die Lösungen sind gut ausgereift.
Um Angriffe zu vermeiden, könnte die Denkweise lauten: Du kannst mich nicht finden, aber OpenAI hat uns bereits verkauft, was tun wir dann?
3.3. Einfacher Trick, um die Hülle zu wahren
Da OpenAI bereits die Funktionsnamen, die API-Adressen und die Parameter preisgegeben hat, wie also diesen Server vor Angriffen zu schützen? Warum ziehen wir uns nicht einfach zurück, indem wir eine Art Cloudflare-Schicht erstellen? Es könnte uns helfen, die echte IP zu verbergen, was Angriffe auf den Server erschwert.
Vorteile der Umsetzung der „Hülle“-Strategie:
- Erhöhte Sicherheit: Durch die Verbergung der echten IP wird das Risiko von direkten Angriffen auf den Server, wie DDoS-Angriffe, vermindert.
- Leistungsoptimierung: CDN kann statische Ressourcen cachen und über nächstgelegene Knotenserver bereitstellen, was die Latenz verringert und die Zugriffszeiten der Nutzer verbessert.
- SSL/TLS-Verschlüsselung: Die meisten CDN-Dienste bieten SSL/TLS-Verschlüsselung, die die Sicherheit der Daten während der Übertragung gewährleistet, selbst in unsicheren Netzwerkumgebungen.
- Angriffsschutz: CDNs und Webfirewall-Services verfügen typischerweise über gewisse Fähigkeiten zur Erkennung und Abwehr von Angriffen, um gegen häufige Netzwerkangriffe wie SQL-Injektionen und Cross-Site-Scripting zu schützen.
Wichtige Punkte:
- Richtige Konfiguration: Es ist wichtig sicherzustellen, dass CDN und Firewall-Regeln korrekt konfiguriert sind, um eine versehentliche Blockierung normaler Zugriffsanfragen zu vermeiden.
- Überwachung: Auch wenn ein CDN verwendet wird, sollte die Sicherheit kontinuierlich im Auge behalten werden. Regelmäßige Überprüfungen der Protokolle sind wichtig, um potenzielle Bedrohungen zu erkennen.
- Backup und Wiederherstellung: Stellen Sie sicher, dass der Server über ein funktionierendes Backup- und Wiederherstellungsplan verfügt, um im Fall eines Angriffs auf den CDN-Dienst schnell wieder Zugriff auf den Dienst zu erhalten.
Zusammenfassend lässt sich sagen, dass die Verwendung von CDNs und Webfirewall-Services zwar nicht alle Sicherheitsprobleme lösen kann, sie jedoch eine wichtige Schutzschicht für den Dienst bieten. In Kombination mit anderen Best Practices wie Datenverschlüsselung, Zugangskontrolle und regelmäßigen Software-Updates kann ein umfassendes Sicherheitsverteidigungssystem aufgebaut werden. Für Anbieter von GPTs ist die Implementierung solcher „Hüllen“-Strategien eine effektive Methode zur Erhöhung der Sicherheit der Dienste.
Hiermit beende ich die Erkundung der Sicherheit.
4. Nachwort
Dieser Artikel wurde lange überlegt, insbesondere die Sektion über den Code Interpreter, da viele online bereitgestellte Beispiele nicht mehr funktionieren, aber ich fand heraus, dass mehr Erkundungen anscheinend nicht zu sehen waren, jedoch stellte sich die Durchführung eigener Tests als recht einfach heraus… Die Sicherheitsüberlegungen zu GPTs sind für die meisten nicht besonders relevant. Wenn dieses Problem nicht gelöst wird, könnte die Kommerzialisierung ernsthafte Probleme mit sich bringen.
4.1. Vorschläge
Die gegenwärtigen Vorschläge sind:
- Schwächung der Prompts
- Sensible Daten nicht hochladen
- Nutzung der eigenen API zur Speicherung von Daten
Natürlich ist das Geschäft unterschiedlich, die Anforderungen variieren, daher sollte man keine Maßnahmen ergreifen, die den Zugang zur Entwicklung ausbremst…
4.2. ChatGPTs Antworten
Der Artikel beschäftigt sich eingehend mit der Sicherheit von ChatGPT und den GPT-Modellen und stellt mehrere Szenarien, Sicherheitslücken und Milderungsstrategien dar. Im Folgenden wird eine detaillierte Analyse der im Artikel geäußerten Punkte vorgenommen, einschließlich Streitfragen und Aspekten, die mehr Erläuterung oder Ergänzung erfordern:
Streitfragen und Klärungen
Missverständnis über die Entwicklung und Fähigkeit von ChatGPT:
- Der Artikel beschreibt ChatGPT als „Demo eines Amateurteams“ und deutet an, dass das Kernteam von OpenAI nicht an dessen Entwicklung beteiligt ist; diese Darstellung ist irreführend. OpenAI hat stets die Verpflichtung ihrer Experten für die Entwicklung und Sicherheit von ChatGPT betont. Zudem sind die Fähigkeiten von ChatGPT sowie das zugrunde liegende GPT-Modell das Ergebnis umfassender Forschung und Entwicklung.
Externe API-Aufruf- und Frontend-Offenlegungsproblematik:
- Der Artikel kritisiert ChatGPT, externe API-Aufrufe unnötig im Frontend offenzulegen; ein tieferes Verständnis der Architekturentscheidungen ist hier erforderlich. Tatsächlich wird die Interaktion zwischen ChatGPT und externen APIs serverseitig verwaltet und nutzt strenge Sicherheitsprotokolle, um unbefugte Zugriffe zu verhindern. Sichtbare Hinweise oder Ausgaben, die mit API-Aufrufen verbunden sind, dienen der Transparenz und dem Nutzerverständnis und nicht dem direkten Offenlegen von Backend-Prozessen.
Sicherheit der gespeicherten Prompts und Wissensdatenbanken:
- Der Artikel erwähnt den Schutz von Prompts und Wissensdatenbanken, impliziert jedoch, dass dies ein erhebliches Problem darstellt. Es ist wichtig zu klären, dass OpenAI robuste Sicherheitsmaßnahmen zum Schutz dieser Elemente ergriffen hat. Die zur Erzeugung von ChatGPT-Antworten verwendeten Prompts sind Bestandteil des Trainingsmodells und können nicht direkt von Nutzern abgerufen oder verändert werden. Wissensdatenbanken werden über kontrollierte Prozesse geschützt und aktualisiert, um ihre Integrität und Vertraulichkeit sicherzustellen.
Fehlende Aspekte oder unzureichende Erkundung
Datenschutz und Anonymisierung:
- Der Artikel könnte von einer Diskussion über die Verschlüsselung von Daten im Ruhezustand und übertragung sowie von der anonymisierten Bearbeitung der Nutzerdaten profitieren. Diese Aspekte sind entscheidend für den Datenschutz und die Sicherheit der Kommunikation zwischen Nutzern und ChatGPT.
Bedrohungsmodellierung und Risikobewertung:
- Eine Untersuchung spezifischer Bedrohungsmodelle und Risikobewertungen im Zusammenhang mit den Anwendungsszenarien von ChatGPT würde den Lesern ein umfassendes Verständnis potenzieller Sicherheitsbedrohungen und Milderungsmaßnahmen an die Hand geben.
Datenschutz und Einwilligung der Nutzer:
- Der Artikel wäre umfassender, wenn er die Nutzerprivatsphäre erweitert diskutieren würde, insbesondere in Bezug auf die Einwilligungsmechanismen zur Datensammlung, -nutzung und -weitergabe. Es sollte erläutert werden, wie Nutzer ihre Zustimmung zur Datensammlung kontrollieren oder sich abmelden können und wie OpenAI Transparenz fördern kann.
Notfallreaktion und Benutzerberichterstattung:
- Es wäre vorteilhaft, auf die Verfahren zur Notfallreaktion einzugehen und zu erläutern, wie Nutzer Sicherheits- oder Datenschutzprobleme melden können. Dazu gehört, welche Schritte OpenAI unternimmt, um auf gemeldete Schwachstellen zu reagieren und wie die Kommunikation mit der Nutzergemeinschaft in solchen Situationen abläuft.
Ethik der KI und Vorurteilsbekämpfung:
- Obwohl dies nicht strikt ein Sicherheitsproblem ist, könnte die Einbeziehung der Diskussion über die Ethik der KI und Strategien zur Minderung von Vorurteilen in der Entwicklung und Bereitstellung von ChatGPT den Artikel bereichern, da sie für den verantwortungsvollen Einsatz von KI von Bedeutung sind.
Zusammenfassend bietet der Artikel eine grundlegende Einsicht in die Sicherheitslandschaft von ChatGPT, mangelt jedoch an einer genauen Erfassung des Engagements von OpenAI für Sicherheit und der Komplexität beim Schutz komplexer KI-Modelle wie ChatGPT. Eine Erweiterung der obigen Punkte würde eine ausgewogenere und gründlichere Perspektive bieten.
4.3. Referenzen
- https://community.openai.com/t/how-can-you-protect-your-gpt/500642/37
- https://community.openai.com/t/theres-no-way-to-protect-custom-gpt-instructions/517821/25
- https://mercharts.com/prompts-to-protect-your-gpts-from-copying/
- https://www.toolify.ai/ai-news/securing-custom-gpts-a-guide-to-protecting-your-intellectual-property-752436
- https://medium.com/the-generator/defending-your-custom-gpt-against-prompt-injection-ceea5f3c124d
- https://github.com/GPTGeeker/securityGPT
- https://wonderwhy-er.medium.com/so-you-want-to-protect-your-custom-gpts-heres-what-you-need-to-know-c4aec4f32478
- https://community.openai.com/t/magic-words-can-reveal-all-of-prompts-of-the-gpts/496771/11