مقالات

حالا بوسیله هوش مصنوعی از ارتعاشات سر افراد برای درست کردن پرونده برای آنها استفاده می شود – اما آیا شواهد کافی برای حمایت ۱۰۰ درصدی از آن وجود دارد؟

هوش مصنوعی

استفاده از هوش مصنوعی برای دسته بندی و شناسایی و ساخت پرونده افراد

 

چه می خواهیم بگوییم:

تنها کاربرد و قدرت سیستم های نظارت تصویری دیجیتالی مانند دوربین مداربسته، تشخیص هویت شخص نیست بلکه آنها می توانند احساسات شخصی و نوع شخصیتی او را بررسی کنند.

آنها حتی می توانند بگویند که افراد چگونه ممکن است در آینده رفتار کنند. و کلید باز کردن این اطلاعات در مورد شخص حرکت سر او است.

اصطلاح “هوش مصنوعی” در این مقاله به معنایی وسیع برای اشاره به سیستم های دیجیتالی استفاده می شود که از الگوریتم ها و ابزارهایی مانند بیومتریک خودکار و بینایی رایانه استفاده می کنند.

ادعاها

این ادعایی است که توسط شرکت تولید سیستم هوش مصنوعی VibraImage (AI) مطرح شده است.

شاید هرگز نام آن را نشنیده باشید ، اما ابزارهای دیجیتالی مبتنی بر VibraImage در طیف وسیعی از برنامه های کاربردی در روسیه ، چین ، ژاپن و کره جنوبی مورد استفاده قرار می گیرند.

 

تحقیقات چه می گویند:

اما همانطور که در تحقیقات اخیر ، که در Science، Technology and Society منتشر شده است ، نشان می دهد ، شواهد تجربی بسیار کمی وجود دارد که نشان دهد استفاده از VibraImage و سیستم هایی مانند آن در دوربین مداربسته در واقع در آنچه ادعا می کنند موثر هستند.

 

کاربردها

از جمله کاربردهای دیگر این برنامه ، شناسایی افراد “مشکوک” در میان جمعیت است.

آنها همچنین برای درجه بندی حالات روحی و روانی کارکنان استفاده می شوند .

از شرکتهای طرف قرارداد VibraImage می توان به نیروهای پلیس ، صنایع هسته ای و امنیت فرودگاه اشاره کرد.

این فناوری قبلاً در دو بازی المپیک ، جام جهانی فوتبال و اجلاس جی ۷ به کار گرفته شده است .

در ژاپن ، مشتریان چنین سیستم هایی شامل یکی از ارائه دهندگان برجسته تشخیص چهره جهان (NEC) ، یکی از بزرگترین شرکت های خدمات امنیتی (ALSOK) ، و همچنین فوجیتسو و توشیبا هستند .

در کره جنوبی ، علاوه بر سایر کاربردها ، به عنوان یک سیستم تشخیص دروغ بدون تماس برای استفاده در بازجویی های پلیس در حال توسعه است .

در چین ، به طور رسمی برای استفاده پلیس برای شناسایی افراد مشکوک در فرودگاه ها ، گذرگاه های مرزی و جاهای دیگر تأیید شده است.

در سراسر شرق آسیا و فراتر از آن ، امنیت الگوریتمی ، نظارت ، پلیس پیش بینی و زیرساخت های شهرهای هوشمند در حال تبدیل شدن به جریان اصلی است

VibraImage که اکنون بخشی از زیرساخت های نوظهور را تشکیل می دهد، مانند دیگر سیستم های تشخیص با الگوریتم های احساسی که در سطح جهانی توسعه یافته و به کار گرفته می شود ، وعده می دهد نظارت تصویری را به سطح جدیدی برساند. در این مورد ادعا می شود که این کار را با ایجاد اطلاعاتی در مورد شخصیت ها و زندگی درونی سوژه ها انجام می دهد که آنها حتی خودشان نیز نمی دانند.

ابداع گر

Vibraimage توسط بیومتریست روسی ویکتور مینکین از طریق شرکت ELSYS Corp از سال ۲۰۰۱ ایجاد شده است.

سایر سیستم های تشخیص احساسات سعی می کنند با تجزیه و تحلیل حالات چهره افراد حالت های احساسی آنها را محاسبه کنند ، در مقابل ، VibraImage تصاویر ویدئویی حرکات بسیار ریز غیر ارادی یا  ارتعاشات سر شخص را که توسط ماهیچه ها و سیستم گردش خون ایجاد می شود ، تجزیه و تحلیل می کند.

هوش مصنوعی

نظریات ویکتور مینکین

ویکتور مینکین دو نظریه را مطرح می کند که ظاهراً از این ایده حمایت می کند که این حرکات با حالات احساسی مرتبط هستند.

 

بازتاب حسی – دهلیزی

اولین مورد ، وجود یک ” بازتاب حسی-دهلیزی ” بر اساس این ایده است که سیستم بدن مسئول تعادل و جهت گیری فضایی مربوط به حالات روانی و احساسی است.

 

مدل ترمودینامیک احساسات

مورد دوم ” مدل ترمودینامیکی احساسات ” است که ارتباط مستقیمی بین حالات عاطفی-روانی خاص و میزان انرژی مصرف شده توسط ماهیچه ها ایجاد می کند. مینکین ادعا می کند که این انرژی را می توان از طریق ارتعاشات کوچک سر اندازه گیری کرد.

 

این نظریات چه می گویند

بر اساس این نظریه ها ، حرکت های غیر ارادی صورت و سر احساس ، قصد و شخصیت را نمایان می کند.

حامیان VibraImage علاوه بر تشخیص افراد مشکوک ، معتقدند که از این داده ها می توان برای تعیین نوع شخصیت ، شناسایی نوجوانان بیشتر در معرض بزه یا طبقه بندی انواع استعداد بر اساس ملیت و قومیت استفاده کرد.

آنها حتی پیشنهاد می کنند که می توان از آن برای ایجاد آزمون وفاداری به ارزش های یک شرکت یا ملت به سبک داستان ۱۹۸۴ ، بر اساس تغییر ارتعاشات سر استفاده کرد.

 

چرا نه؟ مخالفان می گویند:

تجزیه و تحلیل حالات چهره برای شناسایی احساسات در سالهای اخیر با انتقادات فزاینده ای روبرو شده است. آیا VibraImage می تواند رویکرد قابل اطمینان تری ارائه دهد؟

این ادعاها که در مورد کارایی آن مطرح شده غیرقابل اثبات به نظر می رسد. تعداد کمی از مقالات علمی در مورد VibraImage در مجلات دانشگاهی با فرایندهای دقیق بررسی همتایان منتشر شده است که بسیاری از آنها توسط کسانی که به موفقیت این فناوری علاقه دارند نوشته شده است.

این تحقیق اغلب بر آزمایش هایی تکیه می کند که قبلاً فرض می کنند VibraImage موثر است.

این که چگونه دقیقاً برخی حرکات سر با حالات عاطفی-روانی خاصی مرتبط هستند هیچگاه توضیح داده نمی شود.

یک مطالعه از دانشگاه کاگاوا ژاپن تقریبا هیچ ارتباطی بین نتایج ارزیابی VibraImage و آزمایشات روانشناسی موجود پیدا نکرد .

در یک بیانیه در پاسخ به ادعاهای در این مقاله، Minkin می گوید که VibraImage یک تکنولوژی در AI نیست، اما در فیزیک قابل فهم و سایبرنتیک و اصول فیزیولوژی و معادلات شفاف برای محاسبات احساسات  هنگامی که  ضرورتی برای آن وجود دارد ، ممکن است از پردازش هوش مصنوعی در تشخیص رفتار یا تشخیص احساسات استفاده کند.

او همچنین استدلال می کند که ممکن است مردم تصور کنند که این فناوری جعلی است زیرا فناوری بدون تماس و ساده تشخیص روانی – فیزیولوژیکی بسیار فوق العاده به نظر می رسد .

 

هوش مصنوعی شک برانگیز

بعضی محققان اصطلاح هوش مصنوعی شک برانگیر را برای توصیف تعداد روزافزون سیستم هایی که افراد را به صورت الگوریتمی به عنوان مشکوک طبقه بندی می کنند ، پیشنهاد می کنند.

آنها معتقدند که خود این سیستم ها بسیار مشکوک هستند. زیرا مبهم ، اثبات نشده ، توسعه یافته و بدون نظارت هستند. آنها همچنین تا حد زیادی غیرقابل کنترل بوده و احتمال آسیب زدن جدی را دارند.

تنها VibraImage را نمی گویند، دیگر سیستم های هوش مصنوعی برای تشخیص افراد مشکوک یا فریبکار آزمایش شده است.

به عنوان مثال ، آواتار در مرز ایالات متحده و مکزیک و iBorderCtrl در مرزهای اتحادیه اروپا آزمایش شده است که هر دو برای تشخیص بزه در بین مهاجران طراحی شده اند.

در چین ، سیستم های مبتنی بر VibraImage و محصولات مشابه برای طیف وسیعی از برنامه های کاربردی در اجرای قانون ، امنیت و مراقبت های بهداشتی استفاده می شود.

در میان نگرانی روزافزون جهانی در مورد نیاز به ایجاد قوانین پیرامون توسعه اخلاقی هوش مصنوعی ، ما باید به طور دقیق تری به چنین سیستم های الگوریتمی مبهم نظارت و کنترل نگاه کنیم.

قانون

پیش نویس مقررات هوش مصنوعی کمیسیون اروپا که اخیراً اعلام شده است ، استفاده از سیستم های تشخیص احساسات توسط مجریان قانون را “پرخطر” طبقه بندی می کند و تحت کنترل سطح بالاتری از حکمرانی قرار می گیرد.

این یک شروع مهم است. کشورهای دیگر باید از این راه پیروی کنند تا اطمینان حاصل شود که آسیب های احتمالی این سیستم های پرخطر به حداقل می رسد.

 

ارزش مادی

ارزش صنعت تشخیص احساسات الگوریتمی در سال ۲۰۱۸ بالغ بر ۱۲ میلیارد دلار بود .

پیش بینی می شود این مبلغ تا سال ۲۰۲۶ به ۳۷.۱ میلیارد دلار برسد .

 

منبع: theconversation

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *