Last Updated on February 8, 2026 12:24 am by INDIAN AWAAZ

© Unsplash/Finn
اقوام متحدہ کے ادارہ برائے اطفال (یونیسف) نے خبردار کیا ہے کہ مصنوعی ذہانت (اے آئی) کے ذریعے بچوں کی جعلی (ڈیپ فیک) جنسی تصاویر بنانے کے رجحان میں تشویشناک حد تک اضافہ ہو رہا ہے جبکہ اسے روکنے کے لیے قوانین کی سخت کمی ہے۔
ادارے نے کہا ہے کہ ڈیپ فیک کے ذریعے ہونے والا استحصال حقیقی اور فوری نقصان کا باعث بن رہا ہے۔ بچے اس کے متحمل نہیں ہو سکتے کہ قانون اس خطرے سے نمٹنے میں پیچھے رہ جائے۔
یونیسف، نفاذ قانون کے بین الاقوامی ادارے انٹرپول اور بچوں کے جنسی استحصال کے خلاف کام کرنے والے عالمی ادارے ‘ای سی پی اے ٹی’ نیٹ ورک کی جانب سے 11 ممالک میں کی گئی ایک تحقیق کے مطابق، گزشتہ ایک سال کے دوران کم از کم 12 لاکھ بچوں نے یہ انکشاف کیا کہ ان کی تصاویر کو واضح ڈیپ فیک جنسی مواد میں تبدیل کیا گیا۔
تحقیق میں بتایا گیا ہے کہ بعض ممالک میں یہ شرح ہر 25 بچوں میں ایک کے برابر ہے یعنی ایک کمرہ جماعت میں کم از کم ایک بچہ اس کا شکار ہو سکتا ہے۔
یونیسف کے مطابق، مختلف ممالک میں اس مسئلے پر تشویش کی سطح میں نمایاں فرق پایا جاتا ہے جو اس بات کی نشاندہی کرتا ہے کہ آگاہی، روک تھام اور تحفظ کے لیے مضبوط اقدامات کی فوری ضرورت ہے۔
جعلی مواد لیکن استحصال حقیقی
مصنوعی ذہانت کے ذریعے تیار یا تبدیل کی گئی تصاویر، ویڈیو یا آڈیو تیار کرنے کی ٹیکنالوجی بچوں سے متعلق جنسی مواد بنانے کے لیے استعمال ہو رہی ہے۔ اس میں ‘نیوڈیفیکیشن’ بھی شامل ہے جس کے تحت مصنوعی ذہانت کے آلات تصاویر میں لباس کو ہٹا کر یا تبدیل کر کے جعلی عریاں یا جنسی نوعیت کی تصاویر تیار کرتے ہیں۔
یونیسف نے کہا ہے کہ جب ایسے مقاصد کے لیے کسی بچے کی تصویر یا شناخت استعمال کی جاتی ہے تو وہ اس سے براہ راست متاثر ہوتا ہے حتیٰ کہ جب کوئی واضح طور پر قابل شناخت متاثرہ موجود نہ ہو تو تب بھی مصنوعی ذہانت سے تیار کردہ یہ مواد بچوں کے استحصال کو معمول بنا دیتا ہے، ایسے مواد کی طلب کو بڑھاتا ہے اور قانون نافذ کرنے والے اداروں کے لیے ان بچوں کی شناخت اور حفاظت کو مشکل بنا دیتا ہے جنہیں اس جرم کے خلاف مدد کی ضرورت ہوتی ہے۔
ادارے نے واضح کیا ہے کہ ڈیپ فیک کے ذریعے ہونے والا استحصال دراصل استحصال ہی ہے اور اس سے ہونے والا نقصان بھی حقیقی ہوتا ہے۔
مضبوط تحفظ کی ضرورت
یونیسف نے مصنوعی ذہانت کے آلات تیار کرنے والی ایسی کمپنیوں کی کوششوں کا خیرمقدم کیا ہے جو اپنے نظام کے غلط استعمال کو روکنے کے لیے ‘سیفٹی بائی ڈیزائن’ اور مضبوط حفاظتی اقدامات اپنا رہے ہیں۔ تاہم، اس ضمن میں اب تک کے مجموعی اقدامات ناکافی اور غیر یکساں ہیں کہ مصنوعی ذہانت کے بہت سے نمونے مناسب حفاظتی انتظامات کے بغیر تیار کیے جا رہے ہیں۔
یہ خطرات اس وقت مزید بڑھ جاتے ہیں جب تخلیقی مصنوعی ذہانت کے آلات کو براہ راست سوشل میڈیا پلیٹ فارمز میں شامل کر دیا جاتا ہے جہاں تبدیل شدہ تصویریں اور ویڈیو بہت تیزی سے پھیلتی ہیں۔
یونیسف نے بتایا ہے کہ خود بچے اس خطرے سے بخوبی آگاہ ہیں۔ حالیہ تحقیق کے دوران بعض ممالک میں دو تہائی بچوں نے بتایا کہ انہیں خدشہ ہے کہ مصنوعی ذہانت کے ذریعے ان کی جعلی جنسی تصاویر یا ویڈیوز بنائی جا سکتی ہیں۔
تیزی سے بڑھتا خطرہ
اس تیزی سے بڑھتے خطرے سے نمٹنے کے لیے یونیسف نے دسمبر میں ‘مصنوعی ذہانت اور بچوں سے متعلق تیسری رہنمائی’ جاری کی جس میں بچوں کے حقوق کے تحفظ کو یقینی بنانے والی پالیسیوں اور نظام کے لیے سفارشات شامل ہیں۔
فی الوقت ادارہ اس خطرے کے خلاف فوری اقدامات کا مطالبہ کر رہا ہے۔ اس نے حکومتوں پر زور دیا ہے کہ وہ بچوں کے جنسی استحصال سے متعلق مواد کی تعریف میں مصنوعی ذہانت سے تیار کردہ مواد کو بھی شامل کریں اور اس کی تیاری، حصول اور تقسیم کو قابل سزا جرم قرار دیں۔ اسی طرح، مصنوعی ذہانت کے آلات بنانے والوں پر لازم ہے کہ وہ اپنی تخلیق کے غلط استعمال کو روکنے کے لیے سیفٹی بائی ڈیزائن اور مضبوط حفاظتی انتظامات نافذ کریں۔
ڈیجیٹل کمپنیاں مصنوعی ذہانت سے تیار کردہ بچوں کے جنسی استحصال سے متعلق مواد کو محض حذف کرنے پر اکتفا نہ کریں بلکہ اس کی ترسیل کو روکیں اور شناخت و نگرانی کی ٹیکنالوجی میں سرمایہ کاری کے ذریعے مواد پر نظر رکھنے کے نظام کو مضبوط بنائیں۔
UN NEWS
