नई दिल्ली:

आर्टिफिशियल इंटेलिजेंस (AI) और डीपफेक (Deepfake) वीडियो से बढ़ रहे खतरों को देखते हुए केंद्र सरकार ने आईटी नियमों (IT Rules) में बड़ा बदलाव किया है।

इलेक्ट्रॉनिक्स और आईटी मंत्रालय ने आज एक नया नोटिफिकेशन जारी किया है, जिसके तहत सोशल मीडिया कंपनियों पर नकेल कस दी गई है।

36 घंटे नहीं, अब सिर्फ 3 घंटे का समय

नए नियमों के मुताबिक, यूट्यूब, फेसबुक, इंस्टाग्राम और एक्स (पूर्व में ट्विटर) जैसे सोशल मीडिया प्लेटफॉर्म्स को अब कोई भी गैर-कानूनी या डीपफेक कंटेंट रिपोर्ट होने के मात्र 3 घंटे के भीतर हटाना होगा। पहले यह समय सीमा 36 घंटे थी। सरकार का मानना है कि वायरल होने की स्पीड को देखते हुए 36 घंटे का समय बहुत ज्यादा था, जिससे नुकसान हो चुका होता था।

चुनाव और वायरल वीडियो पर नजर

सरकार ने यह कदम आगामी चुनावों और हाल ही में वायरल हुए कई डीपफेक वीडियो के मामलों को देखते हुए उठाया है। नए नियमों में स्पष्ट कहा गया है कि अगर कोई कंटेंट ‘सिंथेटिक’ (AI द्वारा निर्मित) है और वह किसी असली व्यक्ति जैसा दिखता है, तो उसे तुरंत हटाना प्लेटफॉर्म की जिम्मेदारी होगी।

कंटेंट क्रिएटर्स के लिए क्या बदला?

अगर आप सोशल मीडिया पर वीडियो बनाते हैं और उसमें AI टूल्स का इस्तेमाल करते हैं, तो अब आपको वीडियो पर ‘AI Generated’ का लेबल लगाना अनिवार्य होगा। ऐसा न करने पर और भ्रामक जानकारी फैलाने पर आईटी एक्ट के तहत कानूनी कार्रवाई भी हो सकती है।

यह नियम 20 फरवरी 2026 से पूरी तरह प्रभाव में आ जाएंगे।

error: Content is protected !!