YouTube का यह टूल पकड़ेगा डीपफेक वीडियो, अब पत्रकार और राजनेता भी कर सकेंगे इस्तेमाल

YouTube ने AI-जेनरेटेड डीपफेक से निपटने के लिए अपने Likeness Detection टूल का दायरा बढ़ाने का फैसला किया है. अब यह टूल पत्रकारों, सरकारी अधिकारियों और राजनेताओं को भी उपलब्ध कराया जाएगा, ताकि उनकी पहचान का गलत इस्तेमाल कर बनाए गए फर्जी वीडियो को जल्दी पहचाना और हटाया जा सके.

इंटरनेट पर डीपफेक वीडियो का खतरा तेजी से बढ़ रहा है. आर्टिफिशियल इंटेलिजेंस की मदद से किसी भी व्यक्ति की आवाज और चेहरे की नकल बनाकर गलत जानकारी फैलाना आज पहले से कहीं ज्यादा आसान हो गया है. इसी खतरे को देखते हुए वीडियो प्लेटफॉर्म YouTube ने अपने खास Likeness Detection Tool को अब और ज्यादा यूजर्स के लिए उपलब्ध कराने का फैसला किया है.

क्या है Likeness Detection Tool?

YouTube ने इस फीचर को पहली बार अक्टूबर 2025 में लॉन्च किया था. इसका उद्देश्य प्लेटफॉर्म पर ऐसे वीडियो को पहचानना है, जिनमें किसी व्यक्ति के परमिशन के बिना उसकी आवाज या चेहरा AI की मदद से कॉपी किया गया हो.

अब किन लोगों को मिलेगा फायदा?

YouTube ने अपने ब्लॉग पोस्ट में बताया, कि अब इस टूल को पत्रकारों, सरकारी अधिकारियों और पॉलिटिकल लीडर्स के लिए भी उपलब्ध कराया जा रहा है, ताकि उनके नाम और पहचान का गलत इस्तेमाल करने वाले डीपफेक वीडियो को आसानी से हटाया जा सके. इन लोगों का समाज में काफी प्रभाव होता है, इसलिए अगर इनके नाम या चेहरे का इस्तेमाल करके किसी तरह का फर्जी वीडियो बनाया जाता है, तो उससे गलत जानकारी और सामाजिक अशांति फैलने का खतरा बढ़ जाता है. इसी वजह से कंपनी ने इन यूजर्स को भी इस टूल से जोड़ने का फैसला किया है.

फिलहाल यह फीचर पायलट प्रोग्राम के तहत लिमिटेड यूजर्स को ही उपलब्ध कराया जा रहा है. आने वाले महीनों में इसे और ज्यादा यूजर्स के लिए उपलब्ध कराया जा सकता है.

कैसे काम करता है यह टूल?

इस टूल का इस्तेमाल करने के लिए एलीजिबल लोगों को पहले एनरोलमेंट प्रोसेस पूरा करना होगा. इसके तहत यूजर्स को अपनी पहचान सत्यापित (Identity Verification) करनी होगी. वेरिफिकेशन के लिए उन्हें अपना फोटो आईडी जमा करना होगा और अपने चेहरे का एक वीडियो रिकॉर्ड करके भेजना होगा. इन जानकारी का इस्तेमाल व्यक्ति की असली पहचान और उसके चेहरे व आवाज की पहचान के लिए किया जाता है.

इसके बाद YouTube की टीम उनके आवेदन की जांच करेगी. सब कुछ सही होने पर कंपनी यूजर को ईमेल के जरिए कन्फर्मेशन भेजेगी की उनका सेटअप पूरा हो गया है. इसके बाद वे अपने नाम या चेहरे का गलत इस्तेमाल करने वाले डीपफेक वीडियो को हटाने का अनुरोध कर सकते हैं.

डेटा सुरक्षा को लेकर क्या कहा गया?

YouTube का कहना है कि वेरिफिकेशन के दौरान जमा किया गया डेटा, सिर्फ आइडेंटिटी वेरीफिकेशन के लिए इस्तेमाल किया जाएगा. इसे Google के AI मॉडल को ट्रेन करने के लिए इस्तेमाल नहीं किया जाएगा.

कंपनी के मुताबिक, यह डेटा YouTube के इंटरनल डेटाबेस में सुरक्षित रखा जाएगा और यूजर के आखिरी साइन-इन के बाद तीन साल तक स्टोर किया जा सकता है. इसके बाद इसे कंपनी की प्राइवेसी पॉलिसी के अनुसार संभाला जाएगा.

यह भी पढ़ें: Chrome में आ गया Google का Gemini, अब ब्राउजर में ही मिलेगा AI असिस्टेंट

प्रभात खबर डिजिटल प्रीमियम स्टोरी

लेखक के बारे में

By Shivani Shah

डिजिटल पत्रकारिता में 3 सालों का अनुभव है. प्रभात खबर में जूनियर टेक कंटेंट राइटर के तौर पर काम कर रही हैं. टेक्नोलॉजी कैटेगरी में ये स्मार्टफोन से लेकर टेक-टिप्स, गैजेट्स, एआई, सॉफ्टवेयर और डिजिटल ट्रेंड्स पर रिसर्च-बेस्ड, इन-डेप्थ और यूजर-फोकस्ड कंटेंट लिखती हैं. इसके अलावा ये ऑटोमोबाइल से जुड़ी खबरें भी लिखती हैं.

संबंधित खबरें >

यह भी पढ़ें >