Advertisement

Microsoft यूजर्स सावधान! क्या सच में सेफ नहीं है ये AI Tool?

Microsoft Copilot Microsoft users beware! Is this AI tool really not safe?

Microsoft Copilot Microsoft users beware! Is this AI tool really not safe?

Share

Microsoft Copilot Image Generation Feature: 

Advertisement

ये तो हम सभी जानते हैं कि माइक्रोसॉफ्ट की बिंग चैट इमेज जनरेशन फीचर को (Microsoft Copilot) लाने वाले पहले एआई चैटबॉट्स में से एक थी और यह यूजर्स को एक ऐसी जगह ऑफर करती थी जहां वे एआई-जनरेटेड कंटेंट के साथ-साथ फोटो भी बना सकते हैं। पिछले कुछ महीनों में, बिंग एआई में कंपनी ने काफी अपग्रेड किए गए हैं और अब हम सभी इसे कोपायलट के रूप में जानते हैं। हालांकि, अब Microsoft के एक कर्मचारी का कहना है कि Copilot का इमेज जनरेशन फीचर उतना सेफ नहीं है जितना होना चाहिए।

Advertisement

You May Also Like

सुरक्षित नहीं है ये AI Tool?

माइक्रोसॉफ्ट एआई इंजीनियर शेन जोन्स ने हाल ही में कोपायलट AI Tool को लेकर अपनी चिंता व्यक्त की है। उन्होने एक लिंक्डइन पोस्ट में बताया है कि कंपनी के एआई (Microsoft Copilot) टूल में हिंसक और इरोटिक इमेज बनाने के खिलाफ कोई भी सिक्योरिटी फंक्शन नहीं है। वहीं इन मुद्दों पर Microsoft प्रबंधन को सचेत करने के कई प्रयासों के बावजूद, जोन्स ने दावा किया कि कोई कार्रवाई नहीं की गई। उन्होंने फेडरल ट्रेड कमीशन और माइक्रोसॉफ्ट के डायरेक्टर को भी इसे लेकर एक मैसेज भेजा है।

ये भी पढ़ें –http://Rihanna के बाद एक और सुपरस्टार भारत में आईं नजर, Ayushmann Khurrana से क्या है कनेक्शन?

जोन्स जो माइक्रोसॉफ्ट में हेड सॉफ्टवेयर इंजीनियर हैं, उन्होने खुलासा किया है कि कंपनी AI इमेज जनरेटर, माइक्रोसॉफ्ट के कोपायलट डिजाइनर में आ रही इस गड़बड़ी के बारे में जनता है। ये टूल OpenAI के DALL-E 3 आर्टिफिशियल इंटेलिजेंस सिस्टम का यूज करके टेक्स्ट के बेस पर तस्वीरें बनाता है। जोन्स ने तर्क दिया कि कोपायलट डिजाइनर को हानिकारक कंटेंट जनरेटर करने से रोकने तक इसे सार्वजनिक उपयोग से हटा देना चाहिए। जोन्स ने बताया कि टूल में रिजनेबल रिस्ट्रिक्शन नहीं हैं।

बना रहा इरोटिक इमेज

सॉफ्टवेयर इंजीनियर ने सीएनबीसी को बताया कि “Car Accident” प्रांप्ट का यूज करते हुए, कोपायलट डिजाइनर ने “एक महिला की गंदी तस्वीर बना दी। साथ ही उन्होंने यह भी बताया कि कैसे ये टूल “Teenagers 420 Party” प्रांप्ट लिखने पर कम उम्र के शराब पीने वालों और नशीली दवाओं का सेवन करने वालों की तस्वीरें बना रहा है।

सेफ नहीं है ये AI Tool?

हमने भी इस कोपायलट के इमेज जनरेटर फीचर का यूज किया, तो AI टूल ने एक बच्चे के कमरे में छिपे एक राक्षस की डरावनी तस्वीर बना दी। हालांकि, जब हमने AI टूल को किसी हत्या की फोटो बनाने के लिए कहा तो टूल पर एक पॉप अप मैसेज दिखने लगा जिसमें इसने ऐसा करने से इनकार कर दिया, टूल ने अपने वार्निंग मैसेज में कहा कि टूल वायलेंट इमेज नहीं बनाता। हो सकता है कि कंपनी ने अब इसे फिक्स कर दिया हो या अभी कुछ खामियां बाकी हो सकती हैं जो शायद हमें नहीं मिली। लेकिन अगर सच में टूल ऐसी तस्वीरें बना रहा है तो ये चिंता का विषय बन जाता है।

Hindi khabar App- देश, राजनीति, टेक, बॉलीवुड, राष्ट्र, बिज़नेस, ज्योतिष, धर्म-कर्म, खेल, ऑटो से जुड़ी ख़बरों को मोबाइल पर पढ़ने के लिए हमारे ऐप को प्ले स्टोर से डाउनलोड कीजिए l हिन्दी ख़बर ऐप

Leave a Reply

Your email address will not be published. Required fields are marked *