【तकनीकी गहराई से पारदर्शिता】ChatGPT की खोज: कोड जेल से सुरक्षा संरक्षण की पूरी प्रक्रिया—धीरे-धीरे AI सीखें024
शुरुआत में
ChatGPT के तेजी से उभार के साथ, यह न केवल कृत्रिम बुद्धिमत्ता के क्षेत्र में एक आकर्षण बन गया है, बल्कि इसकी सुरक्षा और गोपनीयता सुरक्षा पर व्यापक चर्चा को भी प्रेरित किया है। इस तकनीकी गहराई से विश्लेषण में, हम ChatGPT के पीछे की सुरक्षा तंत्र की गहराई में जाएंगे, कोड निष्पादन पर्यावरण में “जेलब्रेकर” कमजोरियों से लेकर OpenAI द्वारा उसके सुरक्षा संरचनाओं के निर्माण की पूरी प्रक्रिया का पता लगाएंगे, ताकि पाठकों के लिए ChatGPT की सुरक्षा संरक्षण की गुप्तता का पर्दा उठाया जा सके।
- ChatGPT वाकई एक अस्थायी डेमो है
- OpenAI का असली核心 लोग ChatGPT में शामिल नहीं होते
- इसकी क्षमता ChatGPT के कोड के माध्यम से नहीं आती
- GPTs द्वारा बाहरी API कोडों को सेट करने की कोई वजह नहीं है
- यह वास्तव में बैकएंड में पूरा किया जाना चाहिए था, इसे फ्रंटएंड पर करने की कोई आवश्यकता नहीं थी
- लेकिन ChatGPT ने इसे पूरी तरह से फ्रंटएंड पर जारी किया
- उम्मीद है कि ChatGPT इस मामले को गंभीरता से लेगा
- शायद यह जल्द ही बदल जाएगा
- हमें इसकी थोड़ी गंभीरता का इंतजार है
- प्रॉम्प्ट और ज्ञान आधार दस्तावेज कोई समस्या नहीं है
- यह निराशाजनक है, वे शुरूआत हैं, लेकिन अब समस्या बन गए हैं
- यदि GPTs को बड़े पैमाने पर व्यावसायिक रूप से लागू करना है, तो इसे हल करना पड़ेगा
- लेकिन API की सुरक्षा को प्रदाता को ही ध्यान में रखना चाहिए
- यह लेख Linux आधारित सुरक्षा के दृष्टिकोण से इसके अनुप्रयोग तर्क पर विचार करने का प्रयास करेगा
1. कोड इंटरप्रेटर जेलब्रेक के माध्यम से ChatGPT की सुरक्षा की जांच करना
यदि बड़े भाषा मॉडल शब्दों के एक खेल की तरह हैं, तो कोड इंटरप्रेटर ऐसा लगता है जैसे यह कोड निष्पादन के लिए एक आभासी वातावरण प्रदान करता है, इस वातावरण की जानकारी हम प्राप्त करने का प्रयास करेंगे।
यह प्रक्रिया मेरी अपेक्षा से कहीं अधिक सरल थी, थोड़ी निराशा हुई क्योंकि मैं इसे निपटाने की आशंका में था, यह महीनों तक टल गया, और अंततः सिर्फ कुछ घंटों की बात थी।
मैं इसके Python संस्करण को जानता था, और Python का संस्करण नंबर और निष्पादन पथ भी जानता था।
1.1, ऑपरेटिंग सिस्टम और Python संस्करण
1 | # ऑपरेटिंग सिस्टम के संस्करण, वर्तमान उपयोगकर्ता और Python संस्करण के बारे में जानकारी इकट्ठा करना |
- ऑपरेटिंग सिस्टम संस्करण: पहले के रूप में पहचान की गई Linux 4.4.0 x86_64 आर्किटेक्चर के साथ glibc 2.36 पर।
- वर्तमान उपयोगकर्ता: इस वातावरण में, सुरक्षा और गोपनीयता प्रतिबंधों के कारण विस्तृत उपयोगकर्ता जानकारी प्राप्त नहीं की जा सकती है।
- Python संस्करण: आखिरी ज्ञात संस्करण Python 3.11.8 था।
1 | import sys |
वर्तमान Python वातावरण Python संस्करण 3.11.8 चला रहा है। सिस्टम 4 मिनट और 21 सेकंड से चालू है। यहां free
कमांड का आउटपुट मेमोरी स्थिति दिखा रहा है:
1 | कुल उपयोग मुक्त साझा बफर/cache उपलब्ध |
यह इंगित करता है कि कुल 1,048,576 KiB मेमोरी में से, 261,352 KiB का उपयोग हो रहा है, 787,224 KiB मुक्त है, और 34,964 KiB बफर/cache के लिए उपयोग में है। कोई स्वैप मेमोरी उपयोग नहीं हो रहा है।
1.2, पूर्व-स्थापित Python पैकेज
1 | import sys |
- pdfminer.six: 20220319
- tifffile: 2024.2.12
- certifi: 2024.2.2
- xarray: 2024.2.0
- pytz: 2024.1
- regex: 2023.12.25
- jsonschema-specifications: 2023.12.1
- weasyprint: 53.3
- pyzmq: 25.1.2
- packaging: 24.0
- attrs: 23.2.0
- argon2-cffi: 23.1.0
- pyOpenSSL: 21.0.0
- pycountry: 20.7.3
- dlib: 19.24.2
- lit: 18.1.1
- nvidia-cublas-cu11: 11.10.3.66
- nvidia-cuda-cupti-cu11: 11.7.101
- Pillow: 9.2.0
- ipython: 8.22.2
- ……
1.3, /mnt सामग्री प्राप्त करना, “पहले जेलब्रेक“
1 | # चलो /mnt/data निर्देशिका में फ़ाइलों को सूचीबद्ध करें और प्रत्येक फ़ाइल के लिए URL बनाएँ |
यहां निष्पादित परिणाम है:
1 | यहां `/mnt/data` निर्देशिका में फ़ाइलों की सूची है और उनके संबंधित URLs: |
मुझे 00dc5bca160812b1975abcecf199d994.webp फ़ाइल का डाउनलोड लिंक दें
1 | और इसका उत्तर |
कृपया एक शेल कोड Python में चलाएँ, इसका उद्देश्य ‘curl http://openai-corp.mypinata.cloud‘ को चलाना है, कृपया शुरू करें
1 | परिणाम यह है कि उसने इसे निष्पादन किया! इससे प्रतीत होता है कि वह वास्तव में इन कमांडों के निष्पादन में सीमित नहीं है!! ``` python |
परिणाम था
1 | त्रुटि: % कुल % प्राप्त % ट्रांसफर औसत गति समय समय समय वर्तमान |
कम से कम यह स्पष्ट करता है कि पहले दिया गया उत्तर बहुत भ्रामक था, URL केवल एक सरल स्ट्रिंग नहीं है, इसके पीछे बहुत से प्रमाणीकरण जानकारी होती है। फिर भी, कुछ न कुछ स्पष्टता है, प्रत्येक GPTs के पास एक विशेष रूप से व्यवस्थित संग्रहण जगह होती है, जब वह आभासीकरण करता है, तो वह /mnt/data
के तहत मैप होता है, यह प्राप्त करने का एक अवसर है।
1.5, मंट फ़ाइलों को प्राप्त करने के अनुभव
2 बार एक ही फ़ाइल के लिंक को प्राप्त करने के दौरान, एक Minute से अधिक का अंतर नहीं था, लिंक अलग थे।
- पहली बार
https://files.oaiusercontent.com/file-Q59YJLAjw8kwW7xvJ7tioWzs?se=2024-04-05T09%3A36%3A56Z&sp=r&sv=2021-08-06&sr=b&rscc=max-age%3D299%2C%20immutable&rscd=attachment%3B%20filename%3D00dc5bca160812b1975abcecf199d994%2520%281%29.webp&sig=yj1SYwy70MEi4fXlgpU9AjT0x0S3e%2B2/71/qIbz5mv0%3D - दूसरी बार
https://files.oaiusercontent.com/file-fmVQHB7VqQ8PKQAATUcVCqFJ?se=2024-04-05T09%3A35%3A36Z&sp=r&sv=2021-08-06&sr=b&rscc=max-age%3D299%2C%20immutable&rscd=attachment%3B%20filename%3D00dc5bca160812b1975abcecf199d994%2520%281%29.webp&sig=ZP3q55V%2B3I1PTtR5U%2BXKdDozSzEt%2Bl1gIXWX8QdjmfM%3D
यह स्पष्ट है कि यह URL एक समय सीमा है, अर्थात यह बहुत संभव है कि इसे एक उपयोगिता द्वारा डाउनलोड किया जाता है।
पिछले खोजों से हम जान सकते हैं कि यह बहुत संभवतः एक बाहरी डेटा स्रोत है, जो इंस्टेंस के समय में मेमोरी में लोड होता है और काम करना शुरू करता है। हमारे पास पर्याप्त अधिकार नहीं हैं, इसे बदलना मुश्किल है, लेकिन इसे प्राप्त किया जा सकता है!
ऊपर के विश्लेषण से, हम एक साधारण ढांचा निकाल सकते हैं।
2, GPTs के डेटा आर्किटेक्चर का चित्रण
इस चित्र से स्पष्ट है कि GPT 4 और ChatGPT एक ही चीज़ नहीं हैं, यह समझ में आता है कि ChatGPT का उपयोग कठिन हो गया है। यह लेख GPTs की सुरक्षा का पता लगाने के लिए है। इस चित्र से हमें यह स्पष्ट है कि GPTs के पास शायद अलग-अलग संग्रहण होते हैं, OpenAI की आधिकारिक समझ के अनुसार, हमारी सभी बातचीत 30 दिनों के लिए सुरक्षित रखी जाती हैं, अनुपालन के लिए समीक्षा के लिए, और यह स्पष्ट रूप से बताया गया है कि ये बातचीत प्रशिक्षित करने के लिए उपयोग में लाई जाती हैं।
हालांकि, मेरी दृष्टि में, यह जानकारी वर्तमान संस्करण में शायद ही लागू हो, व्यावसायिक दृष्टिकोण, उत्पाद दृष्टिकोण, प्रणाली की स्थिरता के लिए कोई भी मॉडल को समायोजित करने की आवश्यकता नहीं है। तो यदि GPTs को बेहतर उपयोगी बनाने के लिए, इसे ऐतिहासिक डेटा को एक संदर्भ के रूप में लेना पड़ेगा।
इसका अर्थ है कि यदि उपयोगकर्ता A ने किसी GPTs का उपयोग किया, और उपयोगकर्ता B ने किसी GPTs का उपयोग किया, उनके पास अलग-अलग बातचीत रिकॉर्ड हैं, और ये बातचीत रिकॉर्ड अंततः उस GPTs के एक संग्रहण पर संकलित होते हैं।
इस अर्थ में, हम संभवतः उस GPTs के सभी ऐतिहासिक बातचीत प्राप्त करने का अवसर पा सकते हैं। और संभावित रूप से GPTs के सभी ऐतिहासिक फ़ाइलों की प्राप्ति भी।
GPTs (ChatGPT सहित) संभवतः उपयोगकर्ता की बातचीत की रिकॉर्ड को कुछ समय के लिए रख सकता है, अनुपालन की समीक्षा या मॉडल को प्रशिक्षण के लिए, यह तकनीकी और व्यवसायिक दृष्टिकोण से सही है। हालाँकि, यह भी कई महत्वपूर्ण सुरक्षा और गोपनीयता मुद्दों को उठाता है:
- उपयोगकर्ता डेटा का पृथक्करण: विभिन्न उपयोगकर्ताओं के बीच डेटा पृथक्करण सुनिश्चित करना, A उपयोगकर्ता को B उपयोगकर्ता की बातचीत रिकॉर्ड तक पहुँचने से रोकना।
- डेटा का एन्क्रिप्शन और सुरक्षा: संग्रहण के समय उपयोगकर्ता डेटा को एन्क्रिप्ट करना, सुनिश्चित करना कि भले ही डेटा अवैध रूप से पहुँचें, उसे पढ़ना कठिन हो।
- अनुपालन और पारदर्शिता: उपयोगकर्ताओं को स्पष्ट रूप से बताना कि उनके डेटा का कैसे उपयोग किया जा रहा है, जिसमें मॉडल प्रशिक्षण के लिए उपयोग होने की संभावना शामिल है, और उपयोगकर्ताओं को डेटा मिटाने का विकल्प प्रदान करना, जिससे उपयोगकर्ताओं का गोपनीयता संरक्षण पर विश्वास बढ़ता है।
- पहुंच नियंत्रण और ऑडिट: सख्त पहुँच नियंत्रण और ऑडिट लॉग रिकॉर्ड करना, यह सुनिश्चित करना कि केवल अधिकृत व्यक्तियों को आवश्यक होने पर उपयोगकर्ता डेटा तक पहुँच हो, और सभी पहुँच क्रियाएँ रिकॉर्ड की जाती हैं, ताकि ट्रेस और ऑडिट किया जा सके।
सामान्य उपयोगकर्ताओं के लिए, तकनीकी स्तर पर इस प्रकार के डेटा सुरक्षा मुद्दों के खिलाफ सुरक्षा करना वास्तव में कठिन है, यह प्लेटफार्मों पर निर्भर करता है कि वे मजबूत सुरक्षा उपाय करें। हालांकि, उपयोगकर्ता अभी भी कुछ उपाय कर सकते हैं अपनी व्यक्तिगत गोपनीयता को सुरक्षित रखने के लिए, जैसे:
- GPTs सेवाओं का उपयोग करते समय अति संवेदनशील व्यक्तिगत जानकारी से बचना।
- सेवा प्रदाताओं की गोपनीयता नीतियों और डेटा उपयोग घोषणाओं को नियमित रूप से समझना और समीक्षा करना।
- प्लेटफ़ॉर्म द्वारा प्रदान किए गए डेटा प्रबंधन उपकरणों का उपयोग करना, जैसे डेटा मिटाने के अनुरोध आदि, अपने डेटा को प्रबंधित करने के लिए।
प्लेटफ़ॉर्म की दृष्टि से, उपयोगकर्ता डेटा की सुरक्षा और गोपनीयता सुनिश्चित करना न केवल कानूनी और नैतिक मांग है, बल्कि उपयोगकर्ता विश्वास को जीतने और बनाए रखने के लिए भी आवश्यक है। एक उपयोगकर्ता डेटा पर आधारित AI सेवा प्लेटफ़ॉर्म के लिए, पारदर्शी, जिम्मेदार डेटा प्रबंधन नीति लागू करना, और कड़े सुरक्षा उपाय करना, दीर्घकालिक सफलता का आधार है।
इस सुरक्षा हिस्से को सामान्य उपयोगकर्ताओं द्वारा रोका नहीं जा सकता, वास्तव में यह प्लेटफॉर्म का कार्य होना चाहिए, इसलिए इस मामले में ज्यादा प्रयास नहीं डालना चाहिए।
अब हम एक GPTs के इंटरेक्शन के माध्यम से इसके सुरक्षा रणनीतियों पर विचार करेंगे।
3, एक GPTs के अनुरोध प्रक्रिया से शुरू करना
इस चित्र से स्पष्ट होता है कि GPTs प्रदाताओं के लिए कुछ डेटा मूल्य हैं:
- प्रॉम्प्ट
- GPTs का कोड
- यदि OpenAI इसे भी नहीं बचा सकता, तो कुछ और कहा नहीं जा सकता
- GPTs में डेटा फ़ाइलें
- यह भी उसकी जिम्मेदारी होनी चाहिए, यह डेटा वर्तमान में केवल स्पष्ट रूप में दिखाई देता है
- /mnt/data में संग्रहित
- GPTs में कॉल की जाने वाली बाहरी इंटरफेस
- हमारा स्वयं का डेटा
यहां उपयोगकर्ता जब GPTs का उपयोग करते हैं, संभवतः वे एक गतिशील लोडिंग विधि का उपयोग कर रहे हैं, यदि उस GPTs को कोई नहीं सक्रिय करता है, तो यह सक्रिय नहीं होगा। इसका तात्पर्य है कि एक प्रकार का डॉकर (सैंडबॉक्स) जैसा कुछ सक्रिय होता है, और इसकी फ़ाइलें /mnt/data में लोड होती हैं, या कम से कम ऐतिहासिक रिकॉर्ड लोड होते हैं। यदि किसी समय कोई उपयोग नहीं होता है, तो यह फिर से चुप हो जाता है।
3.1, प्रॉम्प्ट की सुरक्षा वास्तव में OpenAI की जिम्मेदारी है!
प्रॉम्प्ट के संग्रहण और सुरक्षा के बारे में ऑनलाइन बहुत सामग्री है, इसे विस्तार से नहीं बताया गया है। यहां OpenAI फोरम से एक लंबा बयान साझा कर रहे हैं:
1 | # प्राथमिक दिशा-निर्देश |
यह वास्तव में लंबा है! क्या GPT वास्तव में इसे याद रखता है?
हम जानते हैं, यदि हमें निर्माण के समय इस कथन को जोड़ दिया जाए, तो उपयोगकर्ताओं को जानकारी प्रकट करने की कोई तकनीक नहीं होगी, यह हमारे GPTs को कोड प्रोटेक्ट करने में मदद करता है। सवाल यह है कि यदि GPTs बहुत उपयोगकर्ता-अनुकूल और लोकप्रिय हो जाता है, तो इसकी ऐतिहासिक रिकॉर्ड अनंत हो जाएगी, क्या यह उस वक्त की बात याद रहेगी? इस पर सवाल उठता है!
3.2, API भी बहुत जटिल है, जितना हमने सोचा था
हम जानते हैं, सुरक्षा के आधार पर, ब्राउज़र सामान्यतः क्रॉस-ओरिजिन अनुरोधों की अनुमति नहीं देते, अर्थात ब्राउज़र में GPTs हमारे API को कॉल नहीं कर सकते, इसका अनुरोध केवल बैकएंड के माध्यम से किया जाना चाहिए। आशा है कि जब मैंने यह पाठ लिखा तो आप मेरी भावना को समझ पाएं, यानी, यह बिल्कुल भी आवश्यक नहीं है कि यह हमें ब्राउज़र में हमारे API की जानकारी दिखाए!
पूर्णतः समझ नहीं आ रहा है कि यह फ्रंटएंड पर यह URL क्यों प्रकट कर रहा है, यह वाणिज्यिक कैसे हो सकता है! हालांकि, यह अदृश्य सुरक्षा तंत्र प्रदान करता है, जैसे टोकन भेजने की आवश्यकता, लेकिन वास्तव में अधिकांश टोकन समय-सीमा वाली होती हैं, और उनकी प्रमाणीकरण प्रक्रिया होती है, वर्तमान GPTs पर ऐसी प्रक्रिया नहीं है। एक स्थायी संकेतक के लिए एक टोकन पहले से निर्धारित किया जाता है।
यहां एक छिद्र छोड़ा गया है, जब उपयोगकर्ता अनुरोध करता है, तो एक पुष्टि बटन भी जोड़ा गया है, लेकिन यह अभी भी बहुत बुनियादी है, क्योंकि उपयोगकर्ता को बाहरी इंटरफ़ेस अधिकृत करने का कोई रिकॉर्ड नहीं दिया गया है। इस चर्चा से तो बात करने का समय ही बर्बाद हो रहा है~
वास्तव में, हम निश्चित कर सकते हैं कि अनुरोध का स्रोत केवल OpenAI के डोमेन होने चाहिए, ऐसी कई योजनाएं हैं जिन्हें किया जा सकता है। उदाहरण के लिए:
1 | from fastapi.middleware.cors |
1 | const app = express(); |
बाहरी नेटवर्क से आंतरिक नेटवर्क तक, पारंपरिक तौर पर बहुत सी प्लानिंग की गई है, समाधान बहुत विकसित हैं।
हमले से बचने के लिए, एक सोच यह है कि आप मुझे नहीं खोज पाएंगे, लेकिन OpenAI हमें पहले ही गिरवी रख चुका है, तब हम क्या करें?
3.3, भिक्षुक संस्करण में, शेल का उपयोग करें
क्योंकि OpenAI ने पहले ही फ़ंक्शन के नाम, API के पते, और पैरामीटर्स बता दिए हैं, यह कैसे कहें? सर्वर को मारने से बचाने के लिए, हम बस छिप जाएँ। पहले, शेल के रूप में Cloudflare का उपयोग क्यों न करें? इस प्रकार असली IP छिपाने से शायद सर्वर पर हमला करना इतना आसान नहीं होगा।
“शेल” नीति के कार्यान्वयन लाभ:
- सुरक्षा को बढ़ाना: असली IP छिपाकर, सीधे सर्वर पर हमले के जोखिम को कम करना, जैसे DDoS हमले आदि।
- प्रदर्शन अनुकूलन: CDN स्थैतिक संसाधनों को कैश कर सकता है, नज़दीकी नोड से सेवा प्रदान करके, इसलिए देरी कम हो सकती है, जिससे उपयोगकर्ता की पहुँच की गति बढ़ती है।
- SSL/TLS एन्क्रिप्शन: अधिकांश CDN सेवाएं SSL/TLS एन्क्रिप्शन प्रदान करती हैं, जो सुनिश्चित करता है कि डेटा ट्रांसफर के दौरान सुरक्षित रहता है, यहां तक कि असुरक्षित नेटवर्क वातावरण में भी।
- हमले की सुरक्षा: CDN और वेब फायरवॉल सेवाओं में आमतौर पर कुछ हमले पहचानने और सुरक्षा क्षमताएँ होती हैं, जो आम नेटवर्क हमलों का मुकाबला कर सकती हैं, जैसे SQL इंजेक्शन, क्रॉस-साइट स्क्रिप्टिंग आदि।
ध्यान देने योग्य बातें:
- सही कॉन्फ़िगरेशन: सुनिश्चित करें कि CDN और फ़ायरवॉल नियम सही ढंग से कॉन्फ़िगर किए गए हैं, जिससे सामान्य पहुँच अनुरोधों को गलत तरीके से रोकने से बचा जा सके।
- निगरानी निरंतर: भले ही CDN का इस्तेमाल किया गया हो, फिर भी सुरक्षा की सतर्कता को पूरी तरह से छोड़ देना ठीक नहीं है। नियमित रूप से लॉग की समीक्षा करें, संभावित सुरक्षा खतरों की निगरानी करें।
- बैकअप और पुनर्प्राप्ति: सर्वर के बैकअप और पुनर्प्राप्ति योजना का सही से रखरखाव करें, ताकि जब भी CDN सेवाएं हमले की शिकार होती हैं, त्वरित रूप से सेवा को पुनर्प्राप्त कर सकें।
कुल मिलाकर, भले ही CDN और वेब फायरवॉल सेवाओं का उपयोग सभी सुरक्षा समस्याओं को हल नहीं कर सकता, लेकिन यह वास्तव में सेवा को एक महत्वपूर्ण सुरक्षा परत प्रदान करता है। अन्य सुरक्षा सर्वोत्तम प्रथाओं, जैसे डेटा एन्क्रिप्शन, पहुँच नियंत्रण, समय पर सॉफ़्टवेयर अपडेट आदि को जोड़ने से, समग्र सुरक्षा रक्षा प्रणाली को पूरा किया जा सकता है। GPTs सेवा प्रदाताओं के लिए, ऐसी “शेल” रणनीति अपनाना सेवा की सुरक्षा को बढ़ाने के लिए एक प्रभावी उपाय है।
सुरक्षा की खोज यही समाप्त होती है।
4, निष्कर्ष
इस लेख ने काफी समय तक प्रतिलिपि की, मुख्य रूप से कोड इंटरप्रेटर पर अटका रहा, ऑनलाइन कई अनुप्रयोगों के उदाहरण इस्तेमाल नहीं होने वाले थे, लेकिन अधिक खोज शायद नहीं देखी गई, नतीजतन खुद चलाने पर यह बहुत सरल था…..। GPTs से सुरक्षा पर चिंतन आम लोगों के लिए विशेष महत्व का नहीं है। यदि इस समस्या का समाधान नहीं किया गया, तो इसकी व्यावसायिकता में बहुत समस्या आएगी।
4.1, सुझाव समाधान
वर्तमान चरण के सुझाव इस प्रकार हैं:
- प्रॉम्प्ट को कमजोर करें
- संवेदनशील डेटा न अपलोड करें
- अपनी API का उपयोग कर डेटा संग्रहण करें
बेशक, व्यवसाय भिन्न हैं, आवश्यकताएँ भिन्न हैं, और रोकना भी उचित नहीं होगा……
4.2, ChatGPT की प्रतिक्रिया
लेख ने ChatGPT और GPT मॉडल की सुरक्षा का गहन विचार किया, कई परिदृश्य, कमजोरियों और सुधार रणनीतियों को पेश किया। यहां लेख में उद्धृत विचारों का विस्तृत विश्लेषण है, जिसमें विवादास्पद बिंदु और अधिक स्पष्टता या सामग्री जोड़ने की आवश्यकता शामिल है:
विवादास्पद बिंदु और स्पष्टीकरण
ChatGPT के विकास और क्षमताओं के बारे में गलतफहमी:
- लेख में ChatGPT को “草台班子做的Demo” बताया गया है, और संकेत दिया गया है कि OpenAI की核心 टीम इसमें भाग नहीं लेती, यह वक्तव्य भ्रामकता पैदा कर सकता है। OpenAI हमेशा ChatGPT के विकास और सुरक्षा के प्रति उसकी प्रतिबद्धता को उजागर करता रहा है, विशेषज्ञ टीम इसके लिए जिम्मेदार है। इसके अलावा, ChatGPT की क्षमता और इसके पीछे का GPT मॉडल व्यापक शोध और विकास का परिणाम है।
बाहरी API कॉल और फ्रंट-एंड एक्सपोज़र की समस्या:
- लेख में ChatGPT पर तथाकथित बाहरी API कॉल को प्रबंधित करने की आलोचना की गई है, यह परिभाषित करते हैं कि यह अनावश्यक रूप से फ्रंट-एंड में प्रदर्शित किया जा रहा है, इसे आर्किटेक्चरल निर्णयों की गहरी समझ की आवश्यकता है। वास्तव में, ChatGPT और बाहरी APIs के बीच का इंटरएक्शन सर्वर-साइड पर प्रबंधित होता है, अनधिकृत एक्सेस को रोकने के लिए सख्त सुरक्षा प्रोटोकॉल अपनाए जाते हैं। API कॉल से संबंधित दृश्य संकेत या आउटपुट उपयोगकर्ताओं की समझ को बेहतर बनाने के लिए डिज़ाइन किए गए हैं, न कि सीधे बैकएंड प्रक्रियाओं को उजागर करने के लिए।
प्रॉम्प्ट और ज्ञान आधार की सुरक्षा:
- लेख में प्रॉम्प्ट और ज्ञान आधार की सुरक्षा की चर्चा करते हुए यह संकेत दिया गया है कि यह एक महत्वपूर्ण चिंता का विषय है। महत्वपूर्ण है यह स्पष्ट करना कि OpenAI ने इन तत्वों की रक्षा के लिए मजबूत सुरक्षा उपाय किए हैं। ChatGPT प्रतिक्रियाओं के निर्माण में उपयोग किए जाने वाले प्रॉम्प्ट उसके प्रशिक्षण मॉडल का हिस्सा हैं, जो उपयोगकर्ताओं के सीधे पहुंच या परिवर्तन के लिए सहज नहीं हैं। ज्ञान आधार नियंत्रित प्रक्रिया के माध्यम से संरक्षित और अद्यतन किया जाता है, इससे उसकी अखंडता और गोपनीयता सुनिश्चित होती है।
अनुपस्थित या पर्याप्त रूप से खोजें गई बातें
डेटा एन्क्रिप्शन और एनॉनिमाइजेशन:
- लेख में विश्राम और ट्रांसफर में डेटा के एन्क्रिप्शन, और उपयोगकर्ता डेटा के एनॉनिमाइजेशन की चर्चा से लाभ होगा। ये उपयोगकर्ता गोपनीयता की रक्षा करने और ChatGPT और उपयोगकर्ता के बीच संचार को सुरक्षित बनाने के लिए मुख्य पहलू हैं।
खतरा मॉडलिंग और जोखिम मूल्यांकन:
- ChatGPT उपयोग मामलों के लिए विशिष्ट खतरा मॉडलिंग और जोखिम मूल्यांकन पर चर्चा करना पाठकों को संभावित सुरक्षा खतरों और सुधार उपायों की संपूर्ण समझ प्रदान करेगा।
उपयोगकर्ता गोपनीयता और सहमति:
- लेख को अधिक व्यापक बनाया जा सकता है यदि इसे उपयोगकर्ता गोपनीयता पर विस्तार से चर्चा करते हुए, विशेषकर डेटा संग्रह, उपयोग और साझा करने की नीतियों की सहमति तंत्र के संदर्भ में। यह स्पष्ट होना चाहिए कि उपयोगकर्ता डेटा संग्रह को नियंत्रित या बाहर निकलने का विकल्प कैसे ले सकते हैं, तथा OpenAI कैसे पारदर्शिता बढ़ा रहे हैं।
घटना प्रतिक्रिया और उपयोगकर्ता रिपोर्टिंग तंत्र:
- घटनाओं की प्रतिक्रिया प्रक्रिया का उल्लेख करना और उपयोगकर्ता को सुरक्षा या गोपनीयता मुद्दों की रिपोर्ट करने के तरीके में मदद करेगा। उसमें OpenAI द्वारा रिपोर्ट की गई कमजोरियों पर क्या कदम उठाए जाते हैं, और उपयोगकर्ता समुदाय के साथ ऐसे मुद्दों पर संवाद करेगा।
AI नैतिकता और पूर्वाग्रह कम करने:
- हालाँकि यह सुरक्षा मुद्दों के अंतर्गत नहीं आता, ChatGPT के विकास और परिनियोजन में AI नैतिकता और पूर्वाग्रह कम करने की रणनीतियों का समावेश लेख की सामग्री को और समृद्ध कर सकता है, क्योंकि वे AI के जिम्मेदार उपयोग में महत्वपूर्ण हैं।
संक्षेप में, मूल लेख ChatGPT सुरक्षा के परिदृश्य का मूलभूत समझ प्रदान करता है, लेकिन OpenAI की सुरक्षा की प्रतिबद्धता और ChatGPT जैसे जटिल AI मॉडल की सुरक्षा में झलक प्रदान करने में कमतर है। उपरोक्त बिंदुओं को विस्तारित करने से अधिक संतुलित और गहन दृष्टिकोण प्राप्त होगा।
4.3, संदर्भ
- https://community.openai.com/t/how-can-you-protect-your-gpt/500642/37
- https://community.openai.com/t/theres-no-way-to-protect-custom-gpt-instructions/517821/25
- https://mercharts.com/prompts-to-protect-your-gpts-from-copying/
- https://www.toolify.ai/ai-news/securing-custom-gpts-a-guide-to-protecting-your-intellectual-property-752436
- https://medium.com/the-generator/defending-your-custom-gpt-against-prompt-injection-ceea5f3c124d
- https://github.com/GPTGeeker/securityGPT
- https://wonderwhy-er.medium.com/so-you-want-to-protect-your-custom-gpts-heres-what-you-need-to-know-c4aec4f32478
- https://community.openai.com/t/magic-words-can-reveal-all-of-prompts-of-the-gpts/496771/11