
ماہرین نے خدشات کا اظہار کیا ہے کہ جرائم پیشہ افراد ڈیپ فیک ویڈیوز تیار کرنے کے لئے مصنوعی ذہانت کے ٹولز کا استعمال کرسکتے ہیں ،
قطری خبر رساں ادارے کی خبر کے مطابق یہ فیک ویڈیوز انتخابی سال کے دوران رائے دہندگان کو گمراہ اور گمراہ کرسکتے ہیں۔
اوپن اے آئی کے ٹیکسٹ ٹو ویڈیو ٹول سورا کی رونمائی نے اس کی قابل ذکر صلاحیتوں کا مظاہرہ کیا، جس میں برف کے ذریعے اونی میمتھ سے لے کر چیری کے پھولوں کے درمیان گھومنے والے جوڑوں تک کے جاندار مناظر پیدا ہوئے۔
اس مظاہرے نے مبینہ طور پر فلم ساز ٹائلر پیری کو 800 ملین ڈالر کی اسٹوڈیو سرمایہ کاری روکنے پر مجبور کیا ، کیونکہ سورا جیسے ٹولز متنی اشارے کو حقیقت پسندانہ متحرک تصاویر میں ترجمہ کرکے روایتی اسٹوڈیوز کو متروک بنا سکتے ہیں۔
تاہم اس بات کا خدشہ ہے کہ اس طرح کی مصنوعی ذہانت کی ٹیکنالوجی سے مذموم عناصر بھی فائدہ اٹھا سکتے ہیں۔
یہ افراد مصنوعی ذہانت سے تیار کردہ ڈیپ فیکس کا استعمال انتہائی قابل اعتماد لیکن جھوٹی ویڈیوز بنانے، انتخابات کے دوران رائے دہندگان میں الجھن یا غلط معلومات پھیلانے یا تفرقہ انگیز افواہوں کو پھیلا کر افراتفری پھیلانے کے لئے کرسکتے ہیں۔
ریگولیٹرز، قانون نافذ کرنے والے ادارے اور سوشل میڈیا پلیٹ فارمز پہلے ہی مصنوعی ذہانت سے پیدا ہونے والی غلط معلومات میں اضافے سے نبرد آزما ہیں، جن میں سلوواکیا میں انتخابات پر اثر انداز ہونے والی سیاسی شخصیات کی من گھڑت آڈیو اور نیو ہیمپشائر پرائمری انتخابات کے دوران رائے دہندگان کو ناراض کرنے کے واقعات بھی شامل ہیں۔
سیاست دان اور سول سوسائٹی کے حامی ممکنہ نتائج سے خوفزدہ ہیں کیونکہ مصنوعی ذہانت کے ٹولز مسلسل آگے بڑھ رہے ہیں ، جس سے عام لوگوں کے لئے حقیقی مواد کو جعلی سے پہچاننا مشکل ہوتا جارہا ہے۔
تاہم سیاسی غلط معلومات اور مصنوعی ذہانت کے ماہرین اس بات پر زور دیتے ہیں کہ مصنوعی ذہانت کی مصنوعات کا پھیلاؤ صدیوں پرانے مسئلے کی صرف ایک نئی جہت ہے۔
ڈیپ فیکس کے خطرے سے نمٹنے کے لئے وسیع تر مسائل سے نمٹنا ضروری ہے جیسے سوشل میڈیا پلیٹ فارمز کو ریگولیٹ کرنا اور بڑی ٹیک کمپنیوں کو ان کی مصنوعات کے غلط استعمال کے لئے جوابدہ ٹھہرانا بھی ہو گا۔
جنریٹیو اے آئی امیج بنانے والے ٹولز پیش کرنے والی متعدد کمپنیوں کا دعویٰ ہے کہ گمراہ کن تصاویر کی تخلیق کو روکنے کے لئے پالیسیاں موجود ہیں۔
تاہم سینٹر فار کاؤنٹرنگ ڈیجیٹل ہیٹ (سی سی ڈی ایچ) جیسے واچ ڈاگ گروپس کا کہنا ہے کہ ان پالیسیوں کو مؤثر طریقے سے نافذ نہیں کیا جاتا۔
ایک حالیہ مطالعے میں سی سی ڈی ایچ نے اس آسانی کا مظاہرہ کیا ہے جس کے ساتھ مصنوعی ذہانت سے تیار کردہ تصاویر کو ممکنہ طور پر نقصان دہ مواد تیار کرنے کے لئے ہیرا پھیری کی جاسکتی ہے، خاص طور پر امریکی انتخابات کے سیاسی طور پر چارج شدہ تناظر میں زیادہ خطرات نظر آ رہے ہیں۔.
مزید پڑھیں
Catch all the Business News, Breaking News Event and Latest News Updates on The BOL News
Download The BOL News App to get the Daily News Update & Live News