تولیدکنندگان هوش مصنوعی جعلی را می توان روشن کرد تا چهره های آموزش دیده واقعی خود را نشان دهد


اما این بدان معناست که شما می توانید داده های آموزشی را ثبت کنید. او و همکارانش در انویدیا روشی منحصر به فرد برای افشای اطلاعات شخصی ارائه داده اند ، از جمله تصاویر رو در رو و بیشتر ، داده های پزشکی و موارد دیگر ، که به هیچ وجه نیازی به دسترسی به داده های آموزشی ندارد.

در عوض ، آنها یک الگوریتم ایجاد کردند که می تواند داده های نشان داده شده توسط یک مدل آموزش دیده را با تغییر ترتیب ترتیب مدل هنگام پردازش داده ها ، تکرار کند. برای آگاهی از ویدیوی خریداری شده از شبکه استفاده کنید: برای تعیین محتوای تصویر ، شبکه آن را از طریق یک سیستم حسی منتقل می کند. هر قطعه سطوح مختلفی را ارائه می دهد ، از لبه تا شکل تا ویژگی های دیگر.

تیم کائوتز دریافتند که می توانند الگوی بین این فرایندها را قطع کرده و جهت آن را معکوس کرده و تصاویر را از داده های داخلی بازتولید کنند. آنها سیستم را در انواع فرمت های رایج تصویر در GAN آزمایش کردند. در یک آزمایش ، آنها نشان دادند که می توانند تصاویر را از طریق ImageNet ، یکی از محبوب ترین محصولات تصویرسازی جهان ، به درستی تکثیر کنند.

تصاویر ImageNet (در بالا) در بخش سرگرمی تصاویر ایجاد شده با چرخاندن مدل خریداری شده در ImageNet (در زیر)

NVIDIA

همانند کارهای وبستر ، تصویر متحرک واقعی به نظر می رسد. کائوتز می گوید: “این موضوع برای ما مهم است.

محققان استدلال می کنند که این نوع حملات خیالی نیست. تلفن های هوشمند و سایر دستگاه های کوچک بیشتر از هوش مصنوعی استفاده می کنند. به دلیل مشکلات باتری و حافظه ، حالتها فقط در خود دستگاه پیکربندی شده و برای محاسبه نهایی به ابر ارسال می شوند ، فرایندی که به عنوان محاسبه پارتیشن بندی شناخته می شود. کائوتز گفت ، بسیاری از محققان فکر می کنند که محاسبه رایانه هیچگونه اطلاعات محرمانه ای در تلفن فرد نشان نمی دهد زیرا این فقط یک مدل مشترک است. اما حملات او نشان می دهد که اینطور نیست.

کائوتز و همکارانش در حال تلاش برای یافتن راهی برای جلوگیری از این نوع نشت داده های شخصی هستند. او می گوید ما می خواهیم خطرات را درک کنیم تا بتوانیم نقاط ضعف را کاهش دهیم.

با وجود اینکه آنها از روش های متفاوتی استفاده می کنند ، او فکر می کند که کار او با وبستر دو طرفه است. تیم وبستر نشان داد که داده های شخصی را می توان در تولید مدل یافت. تیم کائوتز نشان داد که داده های شخصی را می توان با مراجعه به دیگری و تکرار مدخل فاش کرد. کائوتز می گوید: “حرکت هر دو جهت برای درک بهتر نحوه جلوگیری از حملات ضروری است.”


تمامی اخبار به صورت تصادفی و رندومایز شده پس از بازنویسی رباتیک در این سایت منتشر شده و هیچ مسئولتی در قبال صحت آنها نداریم