تشخیص چهره از نظر فنی بسیار خاص است و باید ممنوع شود

در قرن پانزدهم ، یک آفت موذی اروپا را لرزاند. تهدید می شد مردم را از کار بیکار می کند ، مغز آنها را خراب می کند و حتی آنها را از خدا دورتر می کند. اون بدی؟ به گفته ابات یوهانس تریتمیوس ، این مطبعه بود.

البته ، البته ، چاپخانه و بسیاری از تأثیرات آن نه تنها خوب ، بلکه بنیادی برای جوامع مدرن تلقی می شود – علی رغم اینکه از چاپخانه برای تولید مانیفست آدولف هیتلر “Mein Kampf” نیز استفاده می شد.

اما این نحوه برخورد ما با فناوری است: به عنوان یک چیز غالباً دوگانه که پیرامون آن برای برجسته کردن نکات مثبت و کاهش منفی تلاش می کنیم. این برای همه چیز ، از اتومبیل گرفته تا تلویزیون گرفته تا تلفن های هوشمند صادق است.

آیا با این وجود برخی از فناوری ها آنقدر منفی دارند که ما باید آنها را کاملا ممنوع کنیم؟

این سوالی است که از زمان تغییر فناوری تشخیص چهره از مفهوم به واقعیت ، ذهن من را درگیر خود کرده است. می توان مثلاً برای باز کردن قفل تلفن شما استفاده کرد ، اما به سیستم های دوربین و هوش مصنوعی نیز برای شناسایی و شناسایی افراد از دور گسترش می یابد. شاید برجسته ترین و نگران کننده ترین آنها سیستم هایی مانند Clearview AI باشد ، شرکتی که می تواند با استفاده از این فناوری چهره ها را در مقیاس اجتماعی شناسایی و شناسایی کند.

این شرکت در ماه فوریه مورد بررسی قرار گرفت ، زمانی که دفتر کمیسیون حفظ حریم خصوصی کانادا برای اولین بار تحقیقات را اعلام کرد. در اوایل ماه جاری ، این شرکت ارائه نرم افزار خود را برای استفاده در اینجا متوقف كرد – به ویژه شامل اجرای قانون – تا زمان صدور رای كمیساریا. کانادایی ها همچنین می توانند درخواست کنند که هر گونه پرونده صورت آنها از پایگاه داده شرکت پاک شود ، اگرچه این کار مستلزم ارائه تصویری از چهره آنها است.

در مورد تشخیص چهره به طور خاص چه چیزی باعث نگرانی می شود؟ فیس بوک ، TikTok و تقریباً هر برنامه اجتماعی که استفاده می کنیم ، ما و بسیاری از جزئیات زندگی ما را ردیابی می کند. علاوه بر این ، به نظر می رسد برخی از برنامه های کاربردی بالقوه مفید برای تشخیص چهره وجود دارد. به عنوان مثال تصور کنید که می توانید کودک گمشده ای را پیدا کنید که در خیابان سرگردان است ، یا یک تیرانداز مسلح یا یک تروریست را ردیابی کند. اینها چیزهای ناچیزی نیستند.

اما این مزایای احتمالی ارزش خطر را ندارند. اول ، در نظر بگیرید که نرم افزار تشخیص چهره اغلب نادرست است. در ایالات متحده ، م Instituteسسه ملی استاندارد و فناوری دریافت كه این فناوری اغلب افراد ، به ویژه افراد رنگین پوست را اشتباه شناسایی می كند. در دیترویت ، پس از خطایی در تشخیص چهره ، یک مرد سیاه پوست به دروغ دستگیر شد.

این عدم صحت نه تنها برای اشتباه بودن نگران کننده نیست: بلکه این است که اشتباهات از قبل عدم تعادل موجود را ایجاد کرده است. ما در حال گذراندن لحظه ای هستیم که مردم در می یابند که پلیس و اجرای قانون دارای موضوعات ساختاری و فرهنگی هستند که باعث می شود افراد سیاه پوست ، بومی و سایر حاشیه نشینان را هدف قرار دهند. اگر تشخیص چهره این نوع تعصب را تشدید می کند ، دلیل خوبی برای تأخیر در استفاده از آن به نظر می رسد – شاید برای مدت نامحدود.

با این حال فراتر از این است. همانطور که بیرگیت شیپرز از دانشگاه کالج بلفاست استدلال می کند ، استفاده گسترده از فناوری صورت تأثیر مهیبی بر دموکراسی دارد. تصور کنید اگر نتوانید در یک اعتراض یا راهپیمایی شرکت کنید ، یا حتی در پارک یک آبجو غیرقانونی بخورید ، بدون اینکه تعجب کنید آیا صورت شما گرفته می شود و هویت شما به نیروی انتظامی منتقل می شود؟

بنابراین شناسایی چهره بخشی از یک تغییر گسترده فرهنگی و فناوری است که تهدید به ایجاد تعصب سیستمی ، فرهنگ نظارت و خطر هک بازیگران فناوری بد برای به دست آوردن اهداف ناپسند آن است. ترکیبی از تشخیص چهره با افزایش همه گیر بودن سنسورها ، دوربین های با وضوح بالا در جیب همه و هوش مصنوعی سریعتر و سریعتر ، آینده موذی و وحشتناکی را ایجاد می کند که در آن حریم خصوصی برای همیشه مورد تهدید است و دولت قدرت هرچه بیشتر خود را دارد دسترس.

به طور خلاصه ، تشخیص چهره به سادگی نباید قانونی باشد. خطرات خیلی زیاد است. درست است که به نظر می رسد ایده امتناع از فناوری با چیزی اساسی در درون ما مخالف است. برای اولین بار ، فناوری فقط دو گانه نیست بلکه قابل پیش بینی نیست: مهندسان اپل که آیفون را طراحی کرده اند چگونه ممکن است پیش بینی کنند که روزی ، اینستاگرام نحوه طراحی فیزیکی رستوران ها را تغییر می دهد؟ پیش بینی نحوه استفاده از فناوری تقریباً غیرممکن است.

بارگذاری…

بارگذاری…بارگذاری…بارگذاری…بارگذاری…بارگذاری…

با این حال ، نقطه پذیرش نکات منفی فناوری از یک خواسته اساسی انسانی ناشی می شود: این ایده که فناوری ، حتی در صورت دوگانگی بودن ، سرانجام برای محافظت در برابر وحشی گری بالقوه زندگی وجود دارد. من ممکن است به طور کلی با اسلحه مخالف باشم اما برای افرادی که مثلاً ممکن است با یک خرس قطبی روبرو شوند ، خوشحالم که اسلحه وجود دارد.

اما شاید فناوری شناسایی چهره بیشتر از اسلحه به سلاح های هسته ای شباهت داشته باشد: از لحاظ دامنه ای آنقدر گسترده و بی تفاوت است که بهتر است به سادگی آن را منع کنید تا اینکه آن را کنترل و کنترل کنید. بله ، فناوری سنگر ما در برابر سختی زندگی است. اما فن آوری خاصی وجود دارد که خود بسیار وحشیانه است ، بهتر است از آن امتناع ورزید – آنرا برای آفتی که دارد تشخیص دهید و به سادگی نه بگویید.

ناونیت النگ
Navneet Alang یک ستون نویس مستقر در تورنتو است که به عنوان ستاره دار فن آوری همکاری می کند. او را در توییتر دنبال کنید: navalang

به گفتگو بپیوندید

س:

شما چی فکر میکنید؟ افکار خود را به اشتراک بگذارید

گفتگوها نظر خوانندگان ما است و مشمول موارد زیر است آیین نامه رفتار ستاره این نظرات را تأیید نمی کند.

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>