captcha


آمار مطالب

کل مطالب : 92
کل نظرات : 0

آمار کاربران

افراد آنلاین : 1
تعداد اعضا : 0

کاربران آنلاین


آمار بازدید

بازدید امروز : 51
باردید دیروز : 78
بازدید هفته : 521
بازدید ماه : 5639
بازدید سال : 5639
بازدید کلی : 50846
محققان هوش مصنوعی "فیلتر حفظ حریم خصوصی" را برای عکسهای شما طراحی می کنند که سیستم های تشخیص چهره را غیرفعال می کند

هر بار که عکس یا فیلم را بر روی بستر رسانه های اجتماعی بارگذاری می کنید ، سیستم های تشخیص چهره آن کمی بیشتر درباره شما می آموزند. این الگوریتم ها داده های مربوط به افرادی که می شناسید ، مکان شما و افرادی که می شناسید را می گیرند - و آنها دائما در حال بهبود هستند.


با افزایش نگرانی در مورد حریم خصوصی و امنیت داده ها در شبکه های اجتماعی ، محققان U of T Engineering به رهبری پروفسور پرهام اعرابی و دانشجوی فارغ التحصیل Avishek Bose الگوریتمی برای ایجاد اختلال در سیستم های تشخیص چهره ایجاد کرده اند .

اعرابی می گوید: "حریم شخصی یک مسئله واقعی است زیرا شناخت چهره بهتر و بهتر می شود." "این روشی است که در آن سیستم های مفید تشخیص چهره می توانند با آن توانایی مقابله کنند."

راه حل آنها از یک تکنیک یادگیری عمیق به نام آموزش مخالف استفاده می کند که دو الگوریتم هوش مصنوعی را در برابر یکدیگر قرار می دهد. اعرابی و بوز مجموعه ای از دو شبکه عصبی را طراحی کردند: اولین کار برای شناسایی چهره و دوم کار برای مختل کردن وظیفه تشخیص چهره اولی. این دو نفر دائماً در حال نبرد و یادگیری از یکدیگر هستند ، و مسابقه تسلیحاتی AI را در جریان می گذارند.

نتیجه یک فیلتر مانند اینستاگرام است که می تواند برای محافظت از حریم خصوصی در عکس ها اعمال شود. الگوریتم آنها پیکسل های بسیار مشخصی را در تصویر تغییر می دهد و تغییراتی را می دهد که تقریباً غیرقابل تصور از نظر انسان است.

بوز می گوید: "هوش مصنوعی مخرب می تواند به آنچه شبکه عصبی برای تشخیص چهره به دنبال آن است حمله کند." وی گفت: "اگر هوش مصنوعی در حال جستجو برای گوشه چشم باشد ، به عنوان مثال گوشه چشم را تنظیم می کند تا کمتر مورد توجه قرار گیرند. این اختلالات بسیار ظریف در عکس ایجاد می کند ، اما برای ردیاب آنها به اندازه کافی قابل توجه هستند. سیستم را فریب دهید. "

اعرابی و بوز سیستم خود را روی مجموعه داده صورت 300 وات آزمایش کردند ، استخر استاندارد صنعتی با بیش از 600 چهره که شامل طیف گسترده ای از قومیت ها ، شرایط روشنایی و محیط ها است. آنها نشان دادند كه سيستم آنها مي تواند نسبت چهره هايي را كه در ابتدا قابل تشخيص بودند از 100 درصد به 5/0 درصد كاهش دهد.

بوز ، نویسنده اصلی این پروژه می گوید: "نکته اصلی این بود که دو شبکه عصبی را در برابر یکدیگر آموزش دهیم . یکی ایجاد یک سیستم تشخیص چهره به طور فزاینده ای و دیگری ایجاد ابزاری قوی تر برای غیرفعال کردن تشخیص چهره." مطالعه این تیم در اواخر تابستان امسال در کارگاه بین المللی IEEE در زمینه پردازش سیگنال چندرسانه ای منتشر و ارائه خواهد شد .

علاوه بر غیرفعال کردن تشخیص چهره ، فناوری جدید همچنین جستجوی مبتنی بر تصویر ، شناسایی ویژگی ها ، برآورد احساسات و قومیت و سایر خصوصیات چهره محور را که می توان به صورت خودکار استخراج کرد ، مختل می کند.

در مرحله بعد ، این تیم امیدوار است که فیلتر حفظ حریم خصوصی را از طریق برنامه یا وب سایت در دسترس عموم قرار دهد.

ارابی می گوید: "ده سال پیش این الگوریتم ها باید تعریف شده توسط انسان باشند ، اما اکنون شبکه های عصبی به خودی خود یاد می گیرند. شما نیازی به تهیه چیزی به جز داده های آموزش ندارید." "در پایان آنها می توانند کارهای بسیار شگفت انگیزی انجام دهند. این یک زمان جذاب در این زمینه است ، پتانسیل عظیمی وجود دارد."

هر بار که عکس یا فیلم را بر روی بستر رسانه های اجتماعی بارگذاری می کنید ، سیستم های تشخیص چهره آن کمی بیشتر درباره شما می آموزند. این الگوریتم ها داده های مربوط به افرادی که می شناسید ، مکان شما و افرادی که می شناسید را می گیرند - و آنها دائما در حال بهبود هستند.


با افزایش نگرانی در مورد حریم خصوصی و امنیت داده ها در شبکه های اجتماعی ، محققان U of T Engineering به رهبری پروفسور پرهام اعرابی و دانشجوی فارغ التحصیل Avishek Bose الگوریتمی برای ایجاد اختلال در سیستم های تشخیص چهره ایجاد کرده اند .

اعرابی می گوید: "حریم شخصی یک مسئله واقعی است زیرا شناخت چهره بهتر و بهتر می شود." "این روشی است که در آن سیستم های مفید تشخیص چهره می توانند با آن توانایی مقابله کنند."

راه حل آنها از یک تکنیک یادگیری عمیق به نام آموزش مخالف استفاده می کند که دو الگوریتم هوش مصنوعی را در برابر یکدیگر قرار می دهد. اعرابی و بوز مجموعه ای از دو شبکه عصبی را طراحی کردند: اولین کار برای شناسایی چهره و دوم کار برای مختل کردن وظیفه تشخیص چهره اولی. این دو نفر دائماً در حال نبرد و یادگیری از یکدیگر هستند ، و مسابقه تسلیحاتی AI را در جریان می گذارند.

نتیجه یک فیلتر مانند اینستاگرام است که می تواند برای محافظت از حریم خصوصی در عکس ها اعمال شود. الگوریتم آنها پیکسل های بسیار مشخصی را در تصویر تغییر می دهد و تغییراتی را می دهد که تقریباً غیرقابل تصور از نظر انسان است.

بوز می گوید: "هوش مصنوعی مخرب می تواند به آنچه شبکه عصبی برای تشخیص چهره به دنبال آن است حمله کند." وی گفت: "اگر هوش مصنوعی در حال جستجو برای گوشه چشم باشد ، به عنوان مثال گوشه چشم را تنظیم می کند تا کمتر مورد توجه قرار گیرند. این اختلالات بسیار ظریف در عکس ایجاد می کند ، اما برای ردیاب آنها به اندازه کافی قابل توجه هستند. سیستم را فریب دهید. "

اعرابی و بوز سیستم خود را روی مجموعه داده صورت 300 وات آزمایش کردند ، استخر استاندارد صنعتی با بیش از 600 چهره که شامل طیف گسترده ای از قومیت ها ، شرایط روشنایی و محیط ها است. آنها نشان دادند كه سيستم آنها مي تواند نسبت چهره هايي را كه در ابتدا قابل تشخيص بودند از 100 درصد به 5/0 درصد كاهش دهد.

بوز ، نویسنده اصلی این پروژه می گوید: "نکته اصلی این بود که دو شبکه عصبی را در برابر یکدیگر آموزش دهیم . یکی ایجاد یک سیستم تشخیص چهره به طور فزاینده ای و دیگری ایجاد ابزاری قوی تر برای غیرفعال کردن تشخیص چهره." مطالعه این تیم در اواخر تابستان امسال در کارگاه بین المللی IEEE در زمینه پردازش سیگنال چندرسانه ای منتشر و ارائه خواهد شد .

علاوه بر غیرفعال کردن تشخیص چهره ، فناوری جدید همچنین جستجوی مبتنی بر تصویر ، شناسایی ویژگی ها ، برآورد احساسات و قومیت و سایر خصوصیات چهره محور را که می توان به صورت خودکار استخراج کرد ، مختل می کند.

در مرحله بعد ، این تیم امیدوار است که فیلتر حفظ حریم خصوصی را از طریق برنامه یا وب سایت در دسترس عموم قرار دهد.

ارابی می گوید: "ده سال پیش این الگوریتم ها باید تعریف شده توسط انسان باشند ، اما اکنون شبکه های عصبی به خودی خود یاد می گیرند. شما نیازی به تهیه چیزی به جز داده های آموزش ندارید." "در پایان آنها می توانند کارهای بسیار شگفت انگیزی انجام دهند. این یک زمان جذاب در این زمینه است ، پتانسیل عظیمی وجود دارد."

تعداد بازدید از این مطلب: 564
|
امتیاز مطلب : 0
|
تعداد امتیازدهندگان : 0
|
مجموع امتیاز : 0


می توانید دیدگاه خود را بنویسید

تعداد صفحات : 0



عضو شوید


نام کاربری :
رمز عبور :

فراموشی رمز عبور؟

عضویت سریع

براي اطلاع از آپيدت شدن وبلاگ در خبرنامه وبلاگ عضو شويد تا جديدترين مطالب به ايميل شما ارسال شود