حرف و حدیثها درباره غیر فعال شدن سیستم تشخیص چهره فیس بوک دست به دست مخابره میشود. و در درست و غلط آن شک و شبه های زیادی وجود دارد. اما حقیقیت این است که فیس بوک قصد دارد سیستم تشخیص چهره خود را در این ماه تعطیل کند. همچنین دادههای اسکن چهره بیش از یک میلیارد کاربر را حذف کند. و عملا باید این ویژگیای را حذف کند. زیرا نگرانیهای مربوط به حریم خصوصی، تحقیقات دولتی، شکایت دسته جمعی و مشکلات قانونی را افزایش داده است.
جروم پسنتی، معاون هوش مصنوعی متا، شرکت مادر تازه نامگذاری شده فیسبوک است. که روز سهشنبه در یک پست وبلاگی گفت: این شبکه اجتماعی به دلیل «نگرانیهای زیادی درباره جایگاه فناوری تشخیص چهره در جامعه» این تغییر را ایجاد میکند. او افزود که این شرکت همچنان این فناوری را به عنوان یک ابزار قدرتمند میبیند، اما هر فناوری جدید، مزایا و معایبی دارد که قصد داریم نقطه تعادل را پیدا کنیم.
چگونه عملکرد نرمافزار تشخیص چهره فیس بوک
نرمافزار تشخیص چهره بهطور خودکار افرادی را که در آلبومهای عکس دیجیتال کاربران ظاهر میشوند شناسایی میکند. و به کاربران پیشنهاد میکند که همه آن ها را با یک کلیک «تگ» کنند. و حسابهایشان را به تصاویر مرتبط کنند.
فیس بوک اکنون یکی از بزرگترین مخازن عکس های دیجیتال در جهان را ساخته است. که بخشی از آن به لطف این نرم افزار است.
فناوری تشخیص چهره، که در سالهای اخیر از نظر دقت و قدرت پیشرفت کرده است. به طور فزایندهای در کانون بحث قرار گرفته است چرا که میتوان از آن سوء استفاده کرد. در چین، مقامات از این قابلیتها برای ردیابی و کنترل اویغورها، یک اقلیت عمدتا مسلمان، استفاده میکنند. در ایالات متحده، مجریان قانون برای کمک به پلیس به این نرم افزار روی آوردهاند. که منجر به ترس از تجاوز و دستگیری اشتباه شده است. اما برخی از مناطق برای جلوگیری از سوء استفاده احتمالی، این فناوری را ممنوع یا محدود کردهاند.
قابلیت های فیس بوک
فیس بوک تنها از قابلیت های تشخیص چهره در سایت خودش استفاده کرد. و نرم افزار خود را به اشخاص ثالث نفروخت، با این حال، این ویژگی به یک دردسر حریم خصوصی و نظارتی برای شرکت تبدیل شد. مردم بارها سوالاتی را در مورد این که فیس بوک چه مقدار از دادههای مربوط به چهره را جمعآوری کرده است. و این شرکت با چنین اطلاعاتی چه کاری میتواند انجام دهد مطرح کردند. تصاویر چهرههایی که در شبکههای اجتماعی یافت میشوند میتوانند توسط استارتآپها و سایر نهادها برای آموزش نرمافزار تشخیص چهره استفاده شوند.
سال گذشته فیس بوک با پرداخت 650 میلیون دلار برای حل و فصل اعتراضات دسته جمعی در ایلینوی که آن را متهم به نقض قانون ایالتی میکرد، موافقت کرد. که رضایت ساکنان را برای استفاده از اطلاعات بیومتریک آنها، از جمله هندسه چهرهشان، دریافت کند. این افشاگریها به جلسات استماع کنگره و تحقیقات نظارتی منجر شده است. هفته گذشته، مارک زاکربرگ، مدیر اجرایی، نام شرکت مادر فیس بوک را به Meta تغییر داد. و گفت که منابع را به سمت ساخت محصولات موثر و مفید در این فناوری سوق خواهد داد.
به گفته این شرکت، غیر فعال شدن سیستم تشخیص چهره فیس بوک، بیش از یک سوم کاربران روزانهای که تشخیص چهره را برای حسابهای خود فعال کرده بودند تحت تاثیر قرار میدهد. این بدان معناست که وقتی عکسها یا ویدیوهای جدیدی از آنها در شبکه اجتماعی آپلود میشود. هشدار دریافت میکنند. این ویژگی همچنین برای نشانهگذاری حسابهایی که ممکن است جعل هویت شخص دیگری باشند استفاده شده بود. این فناوری در نرمافزاری گنجانده شد که عکسها را برای کاربران نابینا توصیف میکرد
غیر فعال شدن سیستم تشخیص چهره فیس بوک
اگرچه فیس بوک قصد دارد تا ماه دسامبر بیش از یک میلیارد الگوی تشخیص چهره با اسکن دیجیتالی را حذف کند، اما الگوریتم پیشرفته DeepFace را حذف نخواهد کرد. این شرکت همچنین عدم استفاده از فناوری تشخیص چهره را در محصولات آیندهاش تضمین نکرده است. غیر فعال شدن سیستم تشخیص چهره فیس بوک اولین عقب نشینی شرکتی در این زمینه نبوده است. در سالهای اخیر آمازون، مایکروسافت و آیبیام فروش محصولات تشخیص چهره خود را متوقف کردهاند.
نرم افزار تشخیص چهره فیس بوک سابقه طولانی و گران قیمتی دارد. زمانی که این نرم افزار در سال 2011 در اروپا عرضه شد، مقامات حفاظت از داده در آنجا گفتند که این اقدام غیرقانونی است. و شرکت برای تجزیه و تحلیل عکسهای یک فرد و استخراج الگوی منحصر به فرد یک چهره به رضایت نیاز دارد. در سال 2015، این فناوری همچنین منجر به تشکیل اعتراضات دسته جمعی در ایلینوی شد.
در طول دهه گذشته، مرکز اطلاعات حریم خصوصی الکترونیک، یک گروه حمایت از حریم خصوصی مستقر در واشنگتن، دو شکایت در مورد استفاده فیس بوک از تشخیص چهره به F.T.C ارائه کرد. زمانی که F.T.C. فیس بوک را در سال 2019 جریمه کرد، فرآیند گیج کننده حریم خصوصی سایت در مورد تشخیص چهره را یکی از دلایل این مجازات نامید.
نتیجه گیری
متا درباره افزودن قابلیتهای تشخیص چهره به محصولات خود در آینده بحث کرده است. در یک جلسه، اندرو باسورث، یکی از مدیران قدیمی شرکت که در سال آینده مدیر ارشد فناوری متا خواهد شد. به کارمندان گفت که فناوری تشخیص چهره مزایای زیادی دارد. ما به گفته شرکتکنندگان و بر اساس توییتهایش، خطرات آن را نیز تصدیق کرد. در ماه سپتامبر، این شرکت یک جفت عینک با دوربین، بلندگو و یک تراشه پردازش کامپیوتری را با مشارکت Ray-Ban معرفی کرد که البته قابلیتهای تشخیص چهره را شامل نمیشود.
آقای گروس، سخنگوی متا، گفت: «ما در حال گفتگوهای متعدد در مورد مزایا و مضرات بالقوه غیر فعال شدن سیستم تشخیص چهره فیس بوک هستیم. ما با سیاستگذاران، سازمانهای جامعه مدنی و حامیان حریم خصوصی از سراسر جهان ملاقات میکنیم تا قبل از معرفی این نوع فناوری در محصولات آینده، دیدگاههای آنها را کاملاً درک و بررسی کنیم.»
پیشرفت تکنولوژی در فیس بوک بسیار چشمگیر است. فیس بوک میخواهد دستگاهی ارائه کند که بتواند به معنای واقعی کلمه ذهن شما را بخواند. این شرکت در یک وبلاگ در هفته گذشته اعلام کرد که این تحقیق در مورد رابطهای مغز و ماشین است که میتواند افکار را مستقیما از سلولهای عصبی شما جمعآوری کرده و آنها را به کلمات تبدیل کند. در این مقاله درباره تکنولوژی در فیس بوک درمورد چگونگی خواندن مغز صحبت خواهیم کرد. با ما همراه باشید.
هدف از کاربرد تکنولوژی در فیس بوک
هدف کوتاه مدت این است که به بیماران معلول جسمی کمک شود. با رمزگشایی سیگنالهای مغزی آنها و امکان بیان افکار خود بدون نیاز به حرکت دادن عضله.
این فناوری میتواند تبدیل به یک کالای عمومی واقعی شود و کیفیت زندگی میلیونها نفر را به میزان قابل توجهی بهبود ببخشد.
اما هدف بلند مدت فیس بوک این است که به مخاطبان بسیار گستردهتری دست پیدا کند.
هدف این است که به همه ما توانایی استفاده و کنترل دستگاههای دیجیتال-از صفحه کلید گرفته تا عینک واقعیت افزوده تنها با استفاده از قدرت تفکر را بدهد.
تحقیقات فیس بوک در دانشگاه کالیفرنیا سان فرانسیسکو
تحقیقات فیس بوک در دانشگاه کالیفرنیا سان فرانسیسکو در حال انجام است. دانشمندان آنجا نتایج یک مطالعه را اخیرا در مقاله Nature Communications منتشر کردند.
آنها میگویند که یک الگوریتم ساختهاند که میتواند کلمات را از فعالیت مغز رمزگشایی کرده و در زمان واقعی به متن روی صفحه کامپیوتر ترجمه کند.
شرکتکنندگان در مطالعه خود به سوالات ساده (مانند: اتاق شما در حال حاضر چگونه است؟) گوش دادند و پاسخ های خود را با صدای بلند بیان کردند.
این الگوریتم، فقط با خواندن فعالیت مغزی آنها، پاسخها را با نرخ صحت 61 درصد رمزگشایی کرد. در حال حاضر، این الگوریتم فقط میتواند کلمات را از یک دسته واژگان کوچک (مانند: سرد، گرم و خوب) تشخیص دهد.
دانشمندان قصد دارند فرهنگ واژه آن را در طول زمان توسعه دهند.
در این میان، لازم است که مفاهیم اخلاقی این فناوری را در نظر بگیریم. به ویژه این که فیس بوک تنها کسی نیست که در حال بررسی رابطهای مغز و رایانه (BCI) است.
دانشمندان مختلف، ارتش آمریکا و شرکتهایی مانند: Kernel و Paradromics نیز در این حوزه مشغول به کار هستند.
شرکت ایلان ماسک Neuralink اخیرا فاش کرد که در حال توسعه نخ هایی انعطاف پذیر است. که میتواند در مغز کاشته شود و روزی به شما این امکان را بدهد که تلفن هوشمند یا رایانه خود را فقط با افکار خود کنترل کنید.
ماسک اظهار داشت که امیدوار است تا پایان سال آینده آزمایش روی انسان را آغاز کند. لازم است در مورد پیامدهای اخلاقی این فناوری های عصبی بحث شود.
دلایل استفاده از تکنولوژی در فیس بوک
اگر قبلا در مورد BCI ها چیزی نشنیدهاید، باورش کمی سخت است که بپذیرید اینها واقعیتهای دنیای امروز هستند، نه چیزی در رمان نیل استفنسون یا ویلیام گیبسون. همانطوری که مشهود است، در طول دوازده سال گذشته، عملا زندگی مردم تغییر کرده است.
فناوری BCI شامل سیستمهایی است که فعالیتهای عصبی را رمز مینامد تا آن را رمزگشایی کند. تکنولوژی در فیس بوک به اندازه این رو رشد است که برخی از محققان علاقهمند به توسعه رابطهای دو طرفه هستند که هم میخوانند و هم مینویسند. موفقیت اولیه در این زمینه – که نه بر گفتار بلکه بر حرکت متمرکز بود – به سال 2006 باز میگردد:
متیو ناگل اولین فردی بود که دچار فلج نخاع شد و ایمپلنت مغزی دریافت کرد. در سال 2006، ناگل فقط با استفاده از ذهنش بازی پونگ را انجام داد.
از آن زمان، افراد معلول جسمی با ایمپلنت مغزی اشیاء را در کانون توجه قرار داده و بازوهای روباتیک را در آزمایشگاهها به عنوان بخشی از تحقیقات علمی به حرکت درآوردند.
برخی آینده پژوهان انگیزههای خارق العادهتری دارند. ماسک گفته است که “دستیابی به همزیستی با هوش مصنوعی” را هدف گرفته است. هدف او توسعه فناوری به گونهایست که به انسانها اجازه میدهد “با هوش مصنوعی” ادغام شوند.
در حال حاضر، BCI – کاشت الکترود در مغز یا بر روی آن – پتانسیل تجاری این فناوری را به شدت محدود میکند. اما شرکتهایی مانند فیس بوک در حال تحقیق روی روشهای غیر تهاجمی هستند. مانند سیستمی که از نور مادون قرمز نزدیک استفاده میکند و میتواند تغییرات جریان خون در مغز را در خارج از آن تشخیص دهد.
خطرات اخلاقی فناوری خواندن مغز
حریم خصوصی
بیایید با بدیهیات شروع کنیم. مغز ما شاید آخرین مرز حفظ حریم خصوصی باشد. آنها محل هویت شخصی ما و خصوصیترین افکار ما هستند. اگر آن تفکر ارزشمند در جمجمه ما متعلق به ما نیست، پس چه چیزی متعلق به ما خواهد بود؟ فیس بوک تاکید داشت که تمام دادههای مغزی در این مطالعه در دانشگاه باقی میماند. و شورلت به MIT Tech Review گفت: ما حریم خصوصی را بسیار جدی میگیریم.
با این وجود، با توجه به اینکه فیس بوک درگیر یکسری رسواییهای حریم خصوصی شده است- که کمبریج آنالیتیکا تنها بارزترین آنها است- ممکن است عموم مردم چنین اطمینان دادنهایی را جدی نگیرند.
پاسخگویی الگوریتمی
در تکنولوژی در فیس بوک، یکی از مشکلات عمده سیستمهای تصمیمگیری الگوریتمی این است که با بیشتر شدن پیچیدگی، میتوانند به جعبه سیاه تبدیل شوند. نحوه تصمیمگیری آنها میتواند آنقدر پیچیده باشد که حتی برای سازندگان آنها نیز مبهم باشد. اگر این مساله در الگوریتم مورد استفاده فیس بوک صادق باشد، عواقب آن میتواند جدی باشد. چرا که دیگر هیچ کس نمیتواند به شما توضیح دهد که چگونه و چرا دستگاه به اشتباه افکار شما را رمزگشایی میکند. عدم شفافیت در اینجا خطرناک خواهد بود.
تغییر هنجارها
خطر بزرگ دیگر این است که این تکنولوژی در فیس بوک ممکن است فرهنگ خواندن ذهن را عادی کند و باعث شود ما تسلیم شویم.
روزی فضای داخل ذهن ما میتواند به گذشته تبدیل شود، زیرا این فناوری نه تنها افکاری را که میخواهیم برای راحتی خود رونویسی کنیم بلکه افکاری را که میخواهیم خصوصی نگه داریم رمزگشایی میکند. چنین چیزی میتواند شامل تمام تخیلات ما، از تخیلات جنسی گرفته تا مخالفت های سیاسی است.
اگر تصور این فناوری برای شما دشوار است، فقط یک دقیقه به فناوری تشخیص چهره فکر کنید. فیس بوک سالها پیش این فناوری را با یک شیوه ابتدایی به راه انداخت: برچسب گذاری دوستان خود در عکسهایی که در شبکه اجتماعی ارسال کردهاید. اما در حال حاضر این فناوری برای پلیس و نظارت بر بسیاری مسائل استفاده میشود.
بیگانگی وجودی
از بین بردن تمایز بین ذهن و ماشین با خطرات فلسفی بیشتری همراه است، مانند خطری که ممکن است از خود بیگانه باشیم. هرچه بیشتر با یک ماشین ادغام شوید، ممکن است بیشتر در مورد خود گیج شوید. BCI که افکار ما را میخواند و مینویسد، اگر به میزان کافی پیچیده شود، میتواند برای هویت وجودی هر فرد بسیار خطرناک باشد.
نظارت
یک ریسک بزرگ -در واقع آنقدر بزرگ که میتوان آن را خطری دانست که بقیه را تحت تأثیر قرار می دهد- عدم وجود مقررات موجود در این فضا است.
زمان میبرد تا سیاستمداران و قانونگذاران به واقعیتهای جدیدی که فناوری خواندن مغز امکان پذیر میکند، برسند.
در حال حاضر، غولهای فناوری می توانند بدون هیچ نظارتی در مورد نحوه جمعآوری، ذخیره و کسب درآمد از دادههای مغز ما، وارد این خلاء قانونی شوند.
نتیجه گیری
این رشد چشمگیر تکنولوژی در فیس بوک توامان با جذابیت و هیجانی که به دنبال دارد بسیار ترسناک نیز به نظر میرسد. اما این واقعیت که به زودی عملی خواهد شد و دنیا را تحت تاثیر خود قرار خواهد داد،اجتنابناپذیر است.