این دانش آموز در حال شرکت در نرم افزار آزمون “غرض دار” است
پرونده حقوقی Pocornie هنوز ادامه دارد. در دسامبر، موسسه هلندی حقوق بشر صدور یک حکم موقت مبنی بر اینکه قویاً مشکوک است که نرم افزار مورد استفاده VU Amsterdam تبعیض آمیز بوده است صادر کرد و به دانشگاه 10 هفته فرصت داد تا دفاعیه خود را ارائه دهد. این دفاع هنوز علنی نشده است، اما VU Amsterdam قبلاً استدلال کرده بود که دادههای گزارش پوکورنی – که نشان میدهد چقدر طول کشیده تا وارد آزمون خود شود و چند بار مجبور شده است نرمافزار را راهاندازی مجدد کند – به این معنی است که مشکلات او به دلیل اینترنت ناپایدار بوده است. اتصال، برخلاف مشکلات مربوط به فناوری تشخیص چهره. انتظار می رود در اواخر سال جاری حکم صادر شود.
تولیدکنندگان نرمافزارهای ضد تقلب مانند Proctorio در اثر همهگیری تقویت شدند، زیرا سالنهای امتحانی با خانههای خود دانشآموزان جایگزین شدند. هدف از نظارت دیجیتال کمک به مدارس و دانشگاهها برای حفظ کار معمول در سراسر قرنطینه بود – بدون ایجاد فرصتی برای تقلب برای دانشآموزان بدون نظارت. اما همهگیری به پایان رسیده است و این نرمافزار همچنان مورد استفاده قرار میگیرد، حتی با بازگشت دانشآموزان در سراسر جهان به تدریس حضوری. «ما معتقد نیستیم که از بین میرود،» گفت جیسون کلی، که بر نظارت بر دانش آموزان در بنیاد مرز الکترونیک مستقر در ایالات متحده تمرکز دارد، در بررسی سال 2022 وضعیت حریم خصوصی دانشجویان در ماه دسامبر.
در ایالات متحده، آمایا راس می گوید کالج او در اوهایو هنوز از نرم افزار ضد تقلب استفاده می کند. اما هر بار که وارد سیستم می شود، احساس نگرانی می کند که تجربه او در طول همه گیری تکرار شود. راس که سیاهپوست است، همچنین میگوید وقتی برای اولین بار در سال 2021 با این نرمافزار مواجه شد، نتوانست به آزمایش خود دسترسی داشته باشد. راس که در آن زمان 20 ساله بود، میگوید: «فقط مدام میگفت: ما نمیتوانیم چهره شما را تشخیص دهیم. پس از دریافت آن پیام سه یا چهار بار، او شروع به بازی با لامپ های اطراف و پرده های پنجره کرد. او حتی سعی کرد در حالت ایستاده، مستقیماً زیر نور سقف خود، آزمایش بدهد.
در نهایت او متوجه شد که اگر چراغ قوه LED را روی قفسه ای نزدیک میزش متعادل کند و آن را مستقیماً به سمت صورتش هدایت کند، می تواند در آزمون علوم خود شرکت کند – حتی اگر نور روشن بود. تقریبا کور کننده او این تجربه را با رانندگی در شب با ماشینی که از جهت دیگر نزدیک میشود و چراغهای جلوی آن روشن است، مقایسه میکند. او میگوید: «شما باید تا زمانی که این کار انجام شود، از آن استفاده میکردید.
راس از ذکر نام شرکت سازنده نرم افزاری که هنوز استفاده می کند خودداری می کند (Proctorio حداقل از یکی از منتقدان خود شکایت کرد). اما بعد از مادرش، جانیس وایت راس، پست در مورد آنچه اتفاق افتاده در توییتر، راس میگوید که نمایندهای از کسبوکار با او تماس گرفت و به او توصیه کرد که آزمایشهای خود را در مقابل دیوارهای سفید انجام ندهد. حالا او تست هایی را با دیوار آویزان چند رنگ پشت سرش انجام می دهد که به نظر می رسد تا کنون جواب داده است. وقتی راس از برخی از دوستان سیاه پوست یا پوست تیرهتر خود در مورد این نرمافزار پرسید، بسیاری از آنها مشکلات مشابهی را تجربه کرده بودند. او میگوید: «اما سپس از دوستان سفید پوستم پرسیدم و آنها میگویند: «در تاریکی آزمایش میدهم».
دبورا راجی، یکی از همکاران بنیاد موزیلا، میگوید:
معمولاً، وقتی شرکتها از مدلهایی استفاده میکنند که در مجموعههای دادههای متنوع آموزش ندیدهاند، فناوری تشخیص و تشخیص چهره افراد با پوست تیرهتر را تشخیص نمیدهد. . در سال 2019، راجی copublished ممیزی محصولات تجاری تشخیص چهره را منتشر کرد که نشان داد برخی از آنها تا 30 درصد در تشخیص زنان با پوست تیره تر از مردان سفیدپوست بدتر بودند. او میگوید: «بسیاری از مجموعههای دادهای که قبل از [۲۰۱۹] در فضای تشخیص چهره استفاده میشد، شامل ۹۰ درصد سوژههای پوست روشنتر و بیش از ۷۰ درصد سوژههای مرد بود. این مشکلی نیست که “حل” شده باشد.