कैसे AI फेक न्यूज बना सकता है और उसका पता लगा सकता है



<div _ngcontent-c15 = "" innerhtml = "

गेटी

झूठी खबरें लगातार होती रही हैं हमारे आसपास बढ़ रहा है, मुख्य रूप से clickbait, और अक्सर वायरल हो जाता है। ये लेख और कहानियाँ पूरी तरह से लोगों को भ्रमित करने और गलत धारणाओं में गलत जानकारी देने के लिए बनाई गई हैं जो अन्यथा कोई योग्यता नहीं रखती हैं। इसके अनुसार शोध प्रकाशित हुआ में विज्ञान पत्रिका, इस तरह के मीडिया के प्रसार को इस तथ्य के लिए जिम्मेदार ठहराया जा सकता है कि मनुष्य सच की तुलना में तेजी से झूठ फैलाने की अधिक संभावना रखते हैं।

सूचना के प्राथमिक स्रोत पत्रकार और प्रामाणिक मीडिया आउटलेट्स होते थे जिन्हें अपने स्रोतों और उनके द्वारा प्राप्त जानकारी को सत्यापित करना पड़ता था; दुख की बात है कि यह अब हमेशा नहीं होता है। प्रौद्योगिकी में हुई प्रगति के साथ, अफवाह और प्रचार मिलों को उन्नत एआई एल्गोरिदम को सौंप दिया गया है जो विश्वसनीय सामग्री बनाने के लिए डिज़ाइन किए गए हैं – जो आमतौर पर सच नहीं है।

इस तकनीक का विकास सिरी, ऑप्टिकल कैरेक्टर रिकग्निशन या स्पैम फिल्टर्स से एक बड़ी छलांग है, लेकिन AI को भारी मात्रा में डेटा को पहचानना और इसमें हेरफेर करना एक खतरनाक प्रस्ताव है।

यह प्रश्न की ओर जाता है: नकली समाचार का पता कैसे लगाया जा सकता है?

अच्छी खबर यह है कि मानव और एआई-जनरेट सामग्री के बीच अंतर करने के लिए डिज़ाइन किए गए एल्गोरिदम विकसित किए गए हैं। दूसरी ओर, ये एल्गोरिदम स्वयं नकली समाचार बनाने की क्षमता के साथ भी आते हैं।

मिथ्यात्व का पता लगाना

जबकि कृत्रिम बुद्धिमत्ता अपेक्षाकृत नई तकनीक की तरह लगती है, यह कुछ समय से हमें सामग्री के माध्यम से छाँटने में मदद कर रही है।

स्पैम फिल्टर के पीछे प्रौद्योगिकी-मशीन लर्निंग एल्गोरिदम-शुरू में 1700 के दशक में विकसित किया गया था। आज, हम इसे कई कार्यों के लिए उपयोग करते हैं, जैसे कि हमारे ईमेल को वर्गीकृत करने के लिए यह निर्धारित करना कि कौन सा पत्राचार उपयोगी है और जो केवल अवांछित जन वितरण है।

इससे तंत्रिका नेटवर्क प्रौद्योगिकी का विकास भी हुआ है, जो एक भेदभाव करने वाले के रूप में कार्य करता है जो प्रामाणिकता निर्धारित करने के लिए लेखों में विसंगतियों का पता लगा सकता है।

कुछ ऐसे ही पोस्ट के बीच तुलनात्मक विश्लेषण का उपयोग करते हैं ताकि यह जांचा जा सके कि क्या जानकारी और तथ्य सत्य हैं और विश्वसनीय स्रोतों से मेल खाते हैं। अन्य लोग शीर्षक और सामग्री के बीच अंतर खोजते हैं – जिससे क्लिकबाइट लेखों की पहचान होती है।

एक नया एल्गोरिथ्म अभी भी ग्रोवर है, जो 92% दक्षता का वादा किया अमानवीय सामग्री का पता लगाने में।

हम 100% सटीकता तक क्यों नहीं पहुंचे

इन प्रणालियों की सबसे बड़ी कमी यह है कि वे मान लेते हैं कि नकली पाठ में हमेशा टेलेंट मार्कर होते हैं।

स्पैम ईमेल ने कितनी बार आपके इनबॉक्स में अपना रास्ता दिखाया है? हालांकि संख्या अधिक नहीं हो सकती है, लेकिन इस बात से इनकार नहीं किया जाता है कि ऐसा कई बार होता है- मुख्यतः इस तथ्य के कारण कि स्पैम सामग्री के निर्माता विकसित होते रहते हैं। वे उन ट्रिगर्स का पता लगाते रहते हैं जो सामग्री को ध्वजांकित करने में मदद करते हैं और उनसे बचना सीखते हैं।

झूठी खबरों के साथ भी यही सच है: जैसे-जैसे इसे पकड़ने और खत्म करने की तकनीक बेहतर होती जाती है, वैसे-वैसे इसे बनाने वाले एल्गोरिदम को पूरा करें।

इसने उन लोगों के बीच एक अंतहीन और आगे-पीछे काम किया है जो झूठी ख़बरों के प्रसार और भ्रामक सामग्री उत्पन्न करने वालों पर अंकुश लगाने के लिए काम कर रहे हैं।

कैसे तंत्रिका नेटवर्क एल्गोरिदम भेद करने के लिए जानें

चूंकि इस तरह के एल्गोरिदम बनाने का मुख्य उद्देश्य वास्तविक और नकली जानकारी के बीच अंतर करना है, इसलिए डेवलपर्स को सबसे पहले सिस्टम को सिखाना होगा कि ये क्या हैं।

ग्रोवर सहित इनमें से अधिकांश एआई को विभिन्न नकली समाचार डेटासेट से मौजूदा लेखों को खिलाकर विकसित किया गया है। ये विशाल वर्चुअल डेटा लाइब्रेरी हैं, जिसमें एआई को मानव लेखन के पैटर्न को जानने में मदद करने के लिए प्रामाणिक जानकारी और स्रोत हैं।

इनमें से कुछ डेटासेट में शामिल हैं:

• RealNews: इस डाटासेट को ग्रोवर को प्रशिक्षित करने के लिए इस्तेमाल किया गया था और इसमें 5,000 से अधिक प्रामाणिक प्रकाशन हैं जिनके लिए 120 जीबी स्थान की आवश्यकता होती है।

• कागले: इस डेटासेट में लगभग 57 एमबी डिस्क स्थान होता है और इसमें 13,000 पंक्तियाँ और 20 कॉलम डेटा होते हैं।

• जॉर्ज मैकिन्टायर: डेटा विज़ुअलाइज़ेशन विश्लेषक के नाम पर, नकली समाचार डेटा के इस सेट के लिए 31 एमबी डिस्क स्थान की आवश्यकता होती है।

एक बार यह प्रक्रिया समाप्त हो जाने के बाद, AI ऐसे जटिल मॉडल का निर्माण कर सकता है जो यह पहचानने में सक्षम हों कि कुछ शब्दों का उपयोग कैसे किया जाता है और विभिन्न अवधारणाओं को एक साथ कैसे जोड़ा जाता है।

फेक न्यूज़ क्रिएशन बाई ए.आई.

भेदभावपूर्ण कार्यक्रमों के लिए इन मॉडलों को बनाने के लिए एक महत्वपूर्ण विधि को "प्रतिकूल" प्रणाली के रूप में जाना जाता है। एडवांसरियल मशीन लर्निंग है प्रक्रिया दुर्भावनापूर्ण या गलत सूचना देने वाली सामग्री बनाना जो पिछले पहचान कार्यक्रमों को खिसका सकती है।

ग्रोवर और अन्य एआई सिस्टम लेखों की विश्वसनीयता का मूल्यांकन करने के लिए लेख बनाने और फिर अपने स्वयं के पहचान कार्यक्रमों का उपयोग करके अपनी दक्षता में सुधार करते हैं। यदि बनाई गई सामग्री आश्वस्त नहीं है, तो जनरेटर पाठ को पुन: पेश करते रहते हैं और सीखते हैं कि वास्तविक क्या है और क्या नहीं है।

नकली लेखों को "उत्पन्न" करने की यह क्षमता दोधारी तलवार के रूप में काम करती है।

एक और उन्नति "डीपफेक" का निर्माण है, जो कि ऐसे वीडियो या फोटो का सिद्धांत या कृत्रिम रूप से उत्पन्न वीडियो हैं जो एक व्यक्ति के शरीर और चेहरे को एक दूसरे पर अंकित कर सकते हैं ताकि यह प्रतीत हो सके कि उन्होंने एक निश्चित कार्रवाई को अंजाम दिया है।

दुरूपयोग के दुरुपयोग पर कठोर परिणाम हो सकते हैं। प्रचार से लेकर घृणा और हिंसा को भड़काने के लिए, फर्जी भाषणों और सिद्धांतित वीडियो के साथ सार्वजनिक शख्सियतों को बदनाम करने के लिए, डीपफेक का इस्तेमाल भ्रम पैदा करने के लिए किया जा सकता है और इससे जनता का भरोसा और बुरी प्रतिष्ठा का नुकसान हो सकता है।

इस तरह के दुरुपयोग का एक प्रमुख उदाहरण एक की रिहाई थी doctored वीडियो फेसबुक के सीईओ मार्क जुकरबर्ग & nbsp; अपनी कांग्रेस की सुनवाई के समय के आसपास।

हालांकि यह पहचानना मुश्किल है कि क्या इस तरह का मीडिया प्रामाणिक है, AI हेरफेर के इस रूप से लड़ने की तकनीक अभी भी कामों में है।

क्या लूप टूट सकता है?

नकली समाचारों को बिना सत्यापित और सत्यापित किए साझा किया जाता है, और इस तरह के प्रसार को अधिक की आवश्यकता पैदा होती है। वास्तव में, प्यू रिसर्च सेंटर & nbsp;सर्वेक्षण पाया कि 10% उत्तरदाताओं ने एक समाचार को ऑनलाइन साझा करने के लिए स्वीकार किया है जो उन्हें पता था कि नकली था, जबकि 49% ने समाचार साझा किया था कि बाद में वे झूठे पाए गए।

अब हम जो कर सकते हैं वह नकली समाचारों के इस प्रसार से निपटने के लिए जागरूकता पैदा करना है। दूसरे शब्दों में, हमें अपनी विश्वसनीयता को छीनने के लिए ऐसे मीडिया को साझा करना बंद करना चाहिए।

नकली समाचार का पता लगाना एक जटिल प्रक्रिया है जो जागरूकता और शिक्षा से शुरू होती है। आपको स्रोत का सत्यापन करना होगा। गुणवत्ता की जानकारी आमतौर पर तथ्य-जाँच या सहकर्मी की समीक्षा की जाती है। आपको प्रतिष्ठित चैनलों से आने वाली अंतर्दृष्टि पर भरोसा करना चाहिए या विश्वसनीय अनुसंधान कंपनियों से खट्टा होना चाहिए।

अब, पहले से अधिक लोग इंटरनेट पर अपनी जानकारी के मुख्य स्रोत के रूप में भरोसा करते हैं। हालाँकि, इस माध्यम को आसानी से गलत सूचनाओं के ढेर से प्रदूषित होने के साथ, ऑनलाइन स्रोतों से हम जो कुछ भी सीखते हैं, उसे सावधानीपूर्वक पूछताछ और मूल्यांकन करना पड़ता है।

फोर्ब्स कम्युनिकेशंस काउंसिल सफल जनसंपर्क, मीडिया रणनीति, रचनात्मक और विज्ञापन एजेंसियों में अधिकारियों के लिए केवल एक निमंत्रण समुदाय है।
क्या मैं योग्य हूं?

">

झूठी खबरें हमारे आसपास लगातार बढ़ रही हैं, मुख्य रूप से क्लिकबैट के रूप में, और अक्सर वायरल जाने के लिए। ये लेख और कहानियाँ पूरी तरह से लोगों को भ्रमित करने और गलत धारणाओं में गलत जानकारी देने के लिए बनाई गई हैं जो अन्यथा कोई योग्यता नहीं रखती हैं। में प्रकाशित शोध के अनुसार विज्ञान पत्रिका, इस तरह के मीडिया के प्रसार को इस तथ्य के लिए जिम्मेदार ठहराया जा सकता है कि मनुष्य सच की तुलना में तेजी से झूठ फैलाने की अधिक संभावना रखते हैं।

सूचना के प्राथमिक स्रोत पत्रकार और प्रामाणिक मीडिया आउटलेट्स होते थे जिन्हें अपने स्रोतों और उनके द्वारा प्राप्त जानकारी को सत्यापित करना पड़ता था; दुख की बात है कि यह अब हमेशा नहीं होता है। प्रौद्योगिकी में हुई प्रगति के साथ, अफवाह और प्रचार मिलों को उन्नत एआई एल्गोरिदम को सौंप दिया गया है जो विश्वसनीय सामग्री बनाने के लिए डिज़ाइन किए गए हैं – जो आमतौर पर सच नहीं है।

इस तकनीक का विकास सिरी, ऑप्टिकल कैरेक्टर रिकग्निशन या स्पैम फिल्टर्स से एक बड़ी छलांग है, लेकिन AI को भारी मात्रा में डेटा को पहचानना और इसमें हेरफेर करना एक खतरनाक प्रस्ताव है।

यह प्रश्न की ओर जाता है: नकली समाचार का पता कैसे लगाया जा सकता है?

अच्छी खबर यह है कि मानव और एआई-जनरेट सामग्री के बीच अंतर करने के लिए डिज़ाइन किए गए एल्गोरिदम विकसित किए गए हैं। दूसरी ओर, ये एल्गोरिदम स्वयं नकली समाचार बनाने की क्षमता के साथ भी आते हैं।

मिथ्यात्व का पता लगाना

जबकि कृत्रिम बुद्धिमत्ता अपेक्षाकृत नई तकनीक की तरह लगती है, यह कुछ समय से हमें सामग्री के माध्यम से छाँटने में मदद कर रही है।

स्पैम फिल्टर-मशीन लर्निंग एल्गोरिदम के पीछे की तकनीक शुरू में 1700 के दशक में विकसित की गई थी। आज, हम इसे कई कार्यों के लिए उपयोग करते हैं, जैसे कि हमारे ईमेल को वर्गीकृत करने के लिए यह निर्धारित करना कि कौन सा पत्राचार उपयोगी है और जो केवल अवांछित जन वितरण है।

इससे तंत्रिका नेटवर्क प्रौद्योगिकी का विकास भी हुआ है, जो एक भेदभाव करने वाले के रूप में कार्य करता है जो प्रामाणिकता निर्धारित करने के लिए लेखों में विसंगतियों का पता लगा सकता है।

कुछ ऐसे ही पोस्ट के बीच तुलनात्मक विश्लेषण का उपयोग करते हैं ताकि यह जांचा जा सके कि क्या जानकारी और तथ्य सत्य हैं और विश्वसनीय स्रोतों से मेल खाते हैं। अन्य लोग शीर्षक और सामग्री के बीच अंतर खोजते हैं – जिससे क्लिकबाइट लेखों की पहचान होती है।

एक नया एल्गोरिथ्म अभी भी ग्रोवर है, जो गैर-अमानवीय सामग्री का पता लगाने में 92% दक्षता का वादा करता है।

हम 100% सटीकता तक क्यों नहीं पहुंचे

इन प्रणालियों की सबसे बड़ी कमी यह है कि वे मान लेते हैं कि नकली पाठ में हमेशा टेलेंट मार्कर होते हैं।

स्पैम ईमेल ने कितनी बार आपके इनबॉक्स में अपना रास्ता दिखाया है? हालांकि संख्या अधिक नहीं हो सकती है, लेकिन इस बात से इनकार नहीं किया जाता है कि ऐसा कई बार होता है- मुख्यतः इस तथ्य के कारण कि स्पैम सामग्री के निर्माता विकसित होते रहते हैं। वे उन ट्रिगर्स का पता लगाते रहते हैं जो सामग्री को ध्वजांकित करने में मदद करते हैं और उनसे बचना सीखते हैं।

झूठी खबरों के साथ भी यही सच है: जैसे-जैसे इसे पकड़ने और खत्म करने की तकनीक बेहतर होती जाती है, वैसे-वैसे इसे बनाने वाले एल्गोरिदम को पूरा करें।

इसने उन लोगों के बीच एक अंतहीन और आगे-पीछे काम किया है जो झूठी ख़बरों के प्रसार और भ्रामक सामग्री उत्पन्न करने वालों पर अंकुश लगाने के लिए काम कर रहे हैं।

कैसे तंत्रिका नेटवर्क एल्गोरिदम भेद करने के लिए जानें

चूंकि इस तरह के एल्गोरिदम बनाने का मुख्य उद्देश्य वास्तविक और नकली जानकारी के बीच अंतर करना है, इसलिए डेवलपर्स को सबसे पहले सिस्टम को सिखाना होगा कि ये क्या हैं।

ग्रोवर सहित इनमें से अधिकांश एआई को विभिन्न नकली समाचार डेटासेट से मौजूदा लेखों को खिलाकर विकसित किया गया है। ये विशाल वर्चुअल डेटा लाइब्रेरी हैं, जिसमें एआई को मानव लेखन के पैटर्न को जानने में मदद करने के लिए प्रामाणिक जानकारी और स्रोत हैं।

इनमें से कुछ डेटासेट में शामिल हैं:

• RealNews: इस डाटासेट को ग्रोवर को प्रशिक्षित करने के लिए इस्तेमाल किया गया था और इसमें 5,000 से अधिक प्रामाणिक प्रकाशन हैं जिनके लिए 120 जीबी स्थान की आवश्यकता होती है।

• कागले: इस डेटासेट में लगभग 57 एमबी डिस्क स्थान होता है और इसमें 13,000 पंक्तियाँ और 20 कॉलम डेटा होते हैं।

• जॉर्ज मैकिन्टायर: डेटा विज़ुअलाइज़ेशन विश्लेषक के नाम पर, नकली समाचार डेटा के इस सेट के लिए 31 एमबी डिस्क स्थान की आवश्यकता होती है।

एक बार यह प्रक्रिया समाप्त हो जाने के बाद, AI ऐसे जटिल मॉडल का निर्माण कर सकता है जो यह पहचानने में सक्षम हों कि कुछ शब्दों का उपयोग कैसे किया जाता है और विभिन्न अवधारणाओं को एक साथ कैसे जोड़ा जाता है।

फेक न्यूज़ क्रिएशन बाई ए.आई.

भेदभावपूर्ण कार्यक्रमों के लिए इन मॉडलों को बनाने के लिए एक महत्वपूर्ण विधि को "प्रतिकूल" प्रणाली के रूप में जाना जाता है। अडवांसर मशीन लर्निंग दुर्भावनापूर्ण या गलत सूचना देने वाली सामग्री बनाने की प्रक्रिया है जो पिछले पहचान कार्यक्रमों को खिसका सकती है।

ग्रोवर और अन्य एआई सिस्टम लेखों की विश्वसनीयता का मूल्यांकन करने के लिए लेख बनाने और फिर अपने स्वयं के पहचान कार्यक्रमों का उपयोग करके अपनी दक्षता में सुधार करते हैं। यदि बनाई गई सामग्री आश्वस्त नहीं है, तो जनरेटर पाठ को पुन: पेश करते रहते हैं और सीखते हैं कि वास्तविक क्या है और क्या नहीं है।

नकली लेखों को "उत्पन्न" करने की यह क्षमता दोधारी तलवार के रूप में काम करती है।

एक और उन्नति "डीपफेक" का निर्माण है, जो कि ऐसे वीडियो या फोटो का सिद्धांत या कृत्रिम रूप से उत्पन्न वीडियो हैं जो एक व्यक्ति के शरीर और चेहरे को एक दूसरे पर अंकित कर सकते हैं ताकि यह प्रतीत हो सके कि उन्होंने एक निश्चित कार्रवाई को अंजाम दिया है।

दुरूपयोग के दुरुपयोग पर कठोर परिणाम हो सकते हैं। प्रचार से लेकर घृणा और हिंसा को भड़काने के लिए, फर्जी भाषणों और सिद्धांतित वीडियो के साथ सार्वजनिक शख्सियतों को बदनाम करने के लिए, डीपफेक का इस्तेमाल भ्रम पैदा करने के लिए किया जा सकता है और इससे जनता का भरोसा और बुरी प्रतिष्ठा का नुकसान हो सकता है।

इस तरह के दुरुपयोग का एक प्रमुख उदाहरण फेसबुक के सीईओ मार्क जुकरबर्ग के एक विवादास्पद वीडियो को उनकी कांग्रेस सुनवाई के समय के आसपास जारी करना था।

हालांकि यह पहचानना मुश्किल है कि क्या इस तरह का मीडिया प्रामाणिक है, AI हेरफेर के इस रूप से लड़ने की तकनीक अभी भी कामों में है।

क्या लूप टूट सकता है?

नकली समाचारों को बिना सत्यापित और सत्यापित किए साझा किया जाता है, और इस तरह के प्रसार को अधिक की आवश्यकता पैदा होती है। वास्तव में, प्यू रिसर्च सेंटर के सर्वेक्षण में पाया गया कि 10% उत्तरदाताओं ने एक समाचार को ऑनलाइन साझा करने के लिए स्वीकार किया है जो उन्हें पता था कि वह नकली था, जबकि 49% ने समाचार साझा किया था कि बाद में वे झूठे पाए गए।

अब हम जो कर सकते हैं वह नकली समाचारों के इस प्रसार से निपटने के लिए जागरूकता पैदा करना है। दूसरे शब्दों में, हमें अपनी विश्वसनीयता को छीनने के लिए ऐसे मीडिया को साझा करना बंद करना चाहिए।

नकली समाचार का पता लगाना एक जटिल प्रक्रिया है जो जागरूकता और शिक्षा से शुरू होती है। आपको स्रोत का सत्यापन करना होगा। गुणवत्ता की जानकारी आमतौर पर तथ्य-जाँच या सहकर्मी की समीक्षा की जाती है। आपको प्रतिष्ठित चैनलों से आने वाली अंतर्दृष्टि पर भरोसा करना चाहिए या विश्वसनीय अनुसंधान कंपनियों से खट्टा होना चाहिए।

अब, पहले से अधिक लोग इंटरनेट पर अपनी जानकारी के मुख्य स्रोत के रूप में भरोसा करते हैं। हालाँकि, इस माध्यम को आसानी से गलत सूचनाओं के ढेर से प्रदूषित होने के साथ, ऑनलाइन स्रोतों से हम जो कुछ भी सीखते हैं, उसे सावधानीपूर्वक पूछताछ और मूल्यांकन करना पड़ता है।