: شبکههای عصبی عمیق دقت و کارایی بالایی در حل مسائل مختلف دارند اما در برابر نمونههای تخاصمی آسیب پذیر هستند. این دسته از نمونههای مخرب به منظور فریب مدل آموزشدیده و بررسی آسیبپذیری مدلهای شبکه عصبی تولید میشوند. در حوزه متن روشهای موفق زیادی برای ساخت این نمو چکیده کامل
: شبکههای عصبی عمیق دقت و کارایی بالایی در حل مسائل مختلف دارند اما در برابر نمونههای تخاصمی آسیب پذیر هستند. این دسته از نمونههای مخرب به منظور فریب مدل آموزشدیده و بررسی آسیبپذیری مدلهای شبکه عصبی تولید میشوند. در حوزه متن روشهای موفق زیادی برای ساخت این نمونهها ارائه نشده است. در این پژوهش یک روش قوی مبتنی بر گرادیان تابع هزینه مدل برای تولید نمونه-های تخاصمی متنی ارائه شده و نشان داده شده که میتوان با جایگزینی تعداد کمی از کلمات موجود در نمونههای اصلی با کلماتی که بیشترین تاثیر منفی را روی تصمیم طبقهبند دارند، نمونههای جدیدی مشابه با نمونههای اولیه برای فریب طبقهبند تحلیل احساس در سطح کلمه تولید نمود. در نهایت با بهرهگیری از این نمونهها دقت دو مدل طبقهبند از پیشآموزشدیده بررسی شد. روش مورد استفاده در این پژوهش، با دستکاری اندک نمونههای ورودی، موفق به کاهش دقت طبقهبندی از 86 درصد به کمتر از 10 درصد شده است.
پرونده مقاله