از هر 3 نفر که از جعلیات عمیق آگاه هستند ، می گویند که آنها سهواً آنها را در شبکه های اجتماعی به اشتراک گذاشته اند – ScienceDaily


مطالعه ای توسط دانشگاه فنی Nanyang ، سنگاپور (NTU سنگاپور) نشان داد که برخی از مردم سنگاپور گزارش دادند که اگرچه آنها از وجود “deepfakes” به طور کلی آگاه بودند ، آنها معتقد بودند که آنها محتوای عمیق جعلی را در رسانه های اجتماعی منتشر کرده اند ، که بعدا متوجه شد که این کلاهبرداری است

Deepfakes ، کیف پول “یادگیری عمیق” و “جعلی” ، فیلم های جعلی فوق العاده واقع گرایانه ای هستند که با نرم افزار هوش مصنوعی (AI) ساخته شده اند و به تصویر کشیدن مردم انجام می دهند که هرگز انجام نداده اند – نه تنها سرعت آنها را کاهش می دهند یا آنها صدای صدا را تغییر می دهند ، اما همچنین باعث می شوند که آنها به نظر می رسد که آنها چیزهایی را می گویند که قبلاً هرگز نگفته اند.

در یک نظرسنجی از 1131 سنگاپوری به سرپرستی دستیار NTU در سنگاپور سیف الدین احمد ، 54 درصد از پاسخ دهندگان اظهار داشتند که از جعل های عمیق آگاه هستند ، از هر سه نفر یک نفر گفت که آنها محتوای خود را در شبکه های اجتماعی به اشتراک می گذارند ، که بعداً جعلی دانستند. جعل

این نظرسنجی همچنین نشان داد که بیش از هر پنج نفر از کسانی که با deepfakes آشنا هستند گفتند که آنها به طور مرتب به صورت آنلاین با deepfakes برخورد می کنند.

یافته های این مطالعه در ژورنال گزارش شده است از راه دور و انفورماتیک در ماه اکتبر به دلیل افزایش تعداد فیلم های عمیق شناسایی شده بصورت آنلاین می آید. در شش ماه منتهی به ژوئن سال 2020 ، شرکتی Sensity که متوجه جعل و تقلب عمیق است ، تخمین می زند که تعداد فیلم های شناسایی شده با جعل عمیق بصورت آنلاین دو برابر شده و به 49،081 رسیده

جعلی عمیق که به صورت ویروسی در آمده است شامل باراک اوباما ، رئیس جمهور سابق ، با استفاده از توصیف فصیح رئیس جمهور دونالد ترامپ در سال 2018 ، و دیگری در سال آخر بنیانگذار فیس بوک ، مارک زاکربرگ ، که ادعا می کند به لطف سرقت ، آینده را کنترل می کند. داده ها.

دستیار سیف الدین از دانشکده ارتباطات و اطلاع رسانی NTU وی کیم وی گفت: “اخبار جعلی به اطلاعات جعلی اشاره دارد که تحت عنوان اخبار معتبر برای گمراه کردن مردم منتشر می شود و deepfakes نوعی جعلی جعلی جدید و بسیار موذیانه است. اخبار. کشورها ، ما قبلاً شاهد بوده ایم که چگونه می توان از چنین جعل های جعلی برای ایجاد پورنوگرافی بدون رضایت ، تحریک ترس و خشونت و تأثیر بر بی اعتمادی مدنی استفاده کرد. داستان. “

“از آنجا که شرکت های فناوری مانند فیس بوک ، توییتر و گوگل آنچه را که آنها به عنوان محتوای آنلاین دستکاری شده شناسایی کرده اند ، به عنوان تقلبی عمیق برچسب گذاری می کنند ، تلاش بیشتری برای آموزش شهروندان در مورد چگونگی انکار موثر چنین محتوایی انجام خواهد شد.”

آمریکایی ها بیشتر از سنگاپوری ها تقلبی عمیق دارند

این تحقیق یافته های مربوط به درک مردم سنگاپور از جعل جعل عمیق در برابر چنین جمعیتی و تعداد پاسخ دهندگان در ایالات متحده را مقایسه می کند.

پاسخ دهندگان در ایالات متحده بیشتر از جعل و تقلب عمیق آگاه بودند (61٪ در ایالات متحده در مقابل 54٪ در SG). آنها گفتند که آنها بیشتر نگران هستند و اغلب در معرض جعل های عمیق قرار می گیرند. بیشتر افراد گزارش می کنند که به اشتراک گذاشتن محتوایی که بعداً در ایالات متحده جعلی بوده اند نسبت به سنگاپور (39٪ در ایالات متحده در مقابل 33٪ در SG) جعلی است.

سیف الدین گفت: “این اختلافات تعجب آور نیست ، با توجه به اهمیت گسترده تر و بحث عمومی در مورد جعل عمیق در ایالات متحده. افزایش اخیر تعداد جعل های تقلبی ، از جمله موارد رئیس جمهور دونالد ترامپ ، نگرانی های مخرب را ایجاد کرده است پتانسیل این شکل از اطلاعات غلط.

“از طرف دیگر ، سنگاپور شاهد تأثیر مستقیم جعل و تقلب عمیق نبوده و دولت برای جلوگیری از تهدیدات ناشی از اطلاعات غیرمجاز ، از جمله جعل عمیق ، قانون” جعل و تقلب و دستکاری آنلاین “(POFMA) را وضع کرده است.

وی با استناد به مطالعه ای که توسط آژانس تحقیقات بازار جهانی مستقل ایپسوس در سال 2018 انجام شد ، افزود: حداقل از هر پنج عنوان جعلی ، یكی از آنها اصیل شناخته شده است.

پروفسور سیف الدین ، ​​تحقیقات وی ، گفت: “قانون دولت برای جلوگیری از تهدید گسترده اطلاعات غلط نیز مفید بوده است ، اما ما باید به بهبود سواد رسانه های دیجیتال به جلو ادامه دهیم ، به ویژه برای کسانی که توانایی تشخیص واقعیت از اطلاعات غلط را ندارند.” منافع شامل رسانه های اجتماعی و افکار عمومی است.

مطالعه NTU در مورد جعل و تقلب عمیق توسط دانشگاه و وزارت آموزش و پرورش سنگاپور تأمین می شود و یافته ها بخشی از یک مطالعه طولانی مدت است که اعتماد شهروندان به فناوری AI را بررسی می کند.


منبع: khabar-erfan.ir

دیدگاهتان را بنویسید

Comment
Name*
Mail*
Website*