नई दिल्ली: आर्टिफिशियल इंटेलिजेंस (AI) और डीपफेक (Deepfake) वीडियो से बढ़ रहे खतरों को देखते हुए केंद्र सरकार ने आईटी नियमों (IT Rules) में बड़ा बदलाव किया है। इलेक्ट्रॉनिक्स और आईटी मंत्रालय ने आज एक नया नोटिफिकेशन जारी किया है, जिसके तहत सोशल मीडिया कंपनियों पर नकेल कस दी गई है। 36 घंटे नहीं, अब सिर्फ 3 घंटे का समय नए नियमों के मुताबिक, यूट्यूब, फेसबुक, इंस्टाग्राम और एक्स (पूर्व में ट्विटर) जैसे सोशल मीडिया प्लेटफॉर्म्स को अब कोई भी गैर-कानूनी या डीपफेक कंटेंट रिपोर्ट होने के मात्र 3 घंटे के भीतर हटाना होगा। पहले यह समय सीमा 36 घंटे थी। सरकार का मानना है कि वायरल होने की स्पीड को देखते हुए 36 घंटे का समय बहुत ज्यादा था, जिससे नुकसान हो चुका होता था। चुनाव और वायरल वीडियो पर नजर सरकार ने यह कदम आगामी चुनावों और हाल ही में वायरल हुए कई डीपफेक वीडियो के मामलों को देखते हुए उठाया है। नए नियमों में स्पष्ट कहा गया है कि अगर कोई कंटेंट ‘सिंथेटिक’ (AI द्वारा निर्मित) है और वह किसी असली व्यक्ति जैसा दिखता है, तो उसे तुरंत हटाना प्लेटफॉर्म की जिम्मेदारी होगी। कंटेंट क्रिएटर्स के लिए क्या बदला? अगर आप सोशल मीडिया पर वीडियो बनाते हैं और उसमें AI टूल्स का इस्तेमाल करते हैं, तो अब आपको वीडियो पर ‘AI Generated’ का लेबल लगाना अनिवार्य होगा। ऐसा न करने पर और भ्रामक जानकारी फैलाने पर आईटी एक्ट के तहत कानूनी कार्रवाई भी हो सकती है। यह नियम 20 फरवरी 2026 से पूरी तरह प्रभाव में आ जाएंगे। Share this: Share on Facebook (Opens in new window) Facebook Share on X (Opens in new window) X Like this:Like Loading... Post navigation लोकसभा स्पीकर ओम बिरला के खिलाफ अविश्वास प्रस्ताव: विपक्ष के 118 सांसदों ने किए हस्ताक्षर, लेकिन राहुल गांधी ने क्यों बनाई दूरी? मणिपुर के उखरूल में फिर भड़की हिंसा: 25 से ज्यादा घर जलकर खाक, इंटरनेट सेवा 5 दिनों के लिए बंद , कैसे बनेगी शांति व्यवस्था?