[ad_1]

شبکه های عصبی عمیق ، سیستم های چند لایه ساخته شده برای پردازش تصاویر و سایر داده ها با استفاده از مدل سازی ریاضی ، سنگ بنای هوش مصنوعی هستند.

آنها قادر به نتایج به ظاهر پیچیده هستند ، اما همچنین می توانند به طرقی متفاوت از نسبتاً بی ضرر – شناسایی نادرست یک حیوان به حیوان دیگر – تا بالقوه کشنده باشند ، در صورتی که شبکه اتومبیل خودران به درستی علامت توقف را تعبیر نکند یکی که ادامه آن را ایمن نشان می دهد.

یک فیلسوف از دانشگاه هوستون در مقاله ای منتشر شده در هوش ماشین طبیعت که ممکن است فرضیات رایج در مورد علت این خرابی های ادعایی اشتباه باشد ، اطلاعاتی که برای ارزیابی قابلیت اطمینان این شبکه ها بسیار مهم است.

از آنجا که یادگیری ماشینی و سایر اشکال هوش مصنوعی بیشتر در جامعه تعبیه شده است ، در همه موارد از صندوق های خودکار گرفته تا سیستم های امنیت سایبری مورد استفاده قرار می گیرد ، کامرون باکنر ، استادیار فلسفه در دانشگاه UH ، گفت که درک آن بسیار مهم است. هنگامی که یک سیستم شبکه عصبی عمیق در هنگام برخورد با اطلاعات خارج از ورودی های آموزشی مورد استفاده برای ساخت شبکه ، تصاویر یا داده های دیگر را اشتباه ارزیابی می کند ، منبع نارسایی های آشکار ناشی از آنچه محققان “نمونه های مسابقه ای” می نامند است. آنها نادر هستند و “مسابقه ای” نامیده می شوند ، زیرا اغلب توسط یک شبکه یادگیری ماشین دیگر ایجاد می شوند یا کشف می شوند – چیزی مانند سرعت در جهان یادگیری ماشین بین روش های پیچیده تر برای ایجاد نمونه های مسابقه و روش های پیچیده تر برای آنها کشف و جلوگیری از

باكنر گفت: “بعضی از این مسابقات مسابقه ای در عوض می توانند مصنوعات باشند و ما باید بهتر بدانیم كه آنها چه هستند تا بدانیم كه این شبکه ها چقدر قابل اعتماد هستند.”

به عبارت دیگر ، وقفه اشتعال می تواند ناشی از تعامل بین آنچه شبکه باید پردازش کند و مدلهای واقعی که در آن دخیل هستند باشد. این دقیقاً همان اشتباه کامل نیست.

باكنر نوشت: “فهم مفاهیم مثالهای مسابقه ای مستلزم بررسی احتمال سوم است: حداقل بعضی از این مدلها مصنوعات هستند.” .

وقایع ضد و نقیضی که باعث اشتباه این سیستم های یادگیری ماشین می شوند لزوماً ناشی از سو abuseاستفاده عمدی نیستند ، اما بیشترین خطر از همین جا ناشی می شود.

باكنر گفت: “این بدان معنی است كه شركت كنندگان مخرب می توانند سیستم هایی را كه به یك شبكه قابل اعتماد دیگر متكی هستند فریب دهند.” “این برنامه های امنیتی دارد.”

می توان یک سیستم امنیتی مبتنی بر فناوری تشخیص چهره را هک کرد تا اجازه دهد مثلاً تخلفی صورت گیرد یا بر روی علائم راهنمایی و رانندگی برگه هایی را که باعث سو cars تعبیر اتومبیل از علامت می شوند ، برگردان قرار دهند ، حتی اگر از نظر ناظر بی خطر باشند.

تحقیقات قبلی نشان داده است ، برخلاف تصورات قبلی ، مثالهای متناقضی به طور طبیعی وجود دارد – زمانهایی که سیستم یادگیری ماشین ، دادهها را از طریق تعامل پیش بینی نشده به جای خطای داده ها ، سو mis تفسیر می کند. آنها نادر هستند و تنها با استفاده از هوش مصنوعی قابل تشخیص هستند.

اما آنها واقعی هستند و باكنر اظهار داشت كه وی نیاز به بازنگری در نحوه برخورد محققان با ناهنجاری ها یا مصنوعات را مطرح می كند.

این مصنوعات به خوبی درک نشده اند. باکنر قیاس بازتاب لنز را در عکس پیشنهاد می کند – پدیده ای که به دلیل نقص لنز دوربین ایجاد نمی شود ، بلکه در عوض ناشی از تعامل نور با دوربین است.

اگر می دانید چگونه تفسیر کنید ، درخشش لنز به طور بالقوه اطلاعات مفیدی را ارائه می دهد – مانند مکان خورشید. به گفته وی ، این مسئله این سال را ایجاد می کند که آیا یادگیری ماشینی حوادث ناگوار ناشی از یک مصنوعات نیز دارای اطلاعات مفیدی است؟

باكنر گفت ، به همان اندازه مهم این است كه این روش جدید تفكر در مورد چگونگی تأثیر مصنوعات بر روی شبكه های عصبی عمیق نشان می دهد كه نباید خواندن نادرست از وب به طور خودكار دلیل بر عدم یادگیری عمیق تلقی شود. معتبر.

وی گفت: “برخی از این مسابقات مسابقه ای می تواند مصنوعات باشد.” “ما باید بدانیم که این مصنوعات چیستند تا بتوانیم از قابلیت اطمینان شبکه ها مطلع شویم.”

منبع تاریخچه:

مواد تهیه شده توسط دانشگاه هوستون. اصلی ، نوشته شده توسط جانی کوور. توجه: مطالب را می توان از نظر سبک و طول ویرایش کرد.

[ad_2]

منبع: khabar-erfan.ir