چکیده:
استفاده از الگوریتمها بهویژه هوش مصنوعی برای اخذ تصمیمات مختلف، مسائل و پرسشهای حقوقی متعددی را برانگیخته است. یکی از این مسائل، تبعیضآمیز بودن تصمیمات الگوریتمی است. این تبعیض ممکن است در خصوص یک فرد یا گروه یا طبقهای از افراد جامعه صورت گیرد. با توجه به وظیفه دولتها برای مقابله با انواع تبعیض، شناسایی مصادیق و علل و تبعیضهای الگوریتمی و ارائه راهکارهای مقابله با آنها به یکی از موضوعات حقوقی روز تبدیل شده است. این مقاله، به بررسی این پرسش پرداخته است که تبعیض الگوریتمی چیست، چه عللی دارد و چگونه باید با آن مقابله شود؟ بدینمنظور، ضمن تعریف و دستهبندی الگوریتمها و تصمیمات الگوریتمی، دو دسته علل (مرتبط با دادههای ورودی و مرتبط با طراحی و عملکرد) را برای تبعیضهای الگوریتمی شناسایی کرده و تجربیات کشورهای پیشرو در زمینه مقابله با چنین تبعیضهایی را نیز دستهبندی، تبیین و نقد کرده است. با توجه به نبود قواعد خاصی برای حمایت از اشخاص در برابر چنین تصمیماتی در کشور ما، استفاده از نقاط قوت مجموع راهکارهای معرفیشده در مقاله، برای رفع این خلأ قانونی پیشنهاد شده است.
Using algorithms, especially artificial intelligence, to make different decisions, has raised many legal issues and questions. One of these issues is the discriminatory nature of algorithmic decisions. This discrimination may be against an individual, group or a class of people in the society. States have general obligation for elimination of any discrimination, including, Algorithmic ones. Hence, identifying extensions and causes of algorithmic discrimination and providing solutions to deal with them has become one of the legal issues of nowadays. This article examines this question: what is algorithmic discrimination, what causes it, and how should it be addressed? To this end, while defining and categorizing algorithms and algorithmic decisions, the author has identifide two categories of causes (related to input data and related to design and performance) for algorithmic discrimination and by referring legal initiatives of leading countries regarding such discriminations as well as classifying various solutions. Finally, due to the lack of special rules to protect individuals against such decisions in Iran, the use of the strengths of all the solutions presented in the article has been suggested to fill this legal gap.
خلاصه ماشینی:
ازاين رو پرسش آن است که مفهوم تبعيض الگوريتمي چيست و چگونه مي توان با آن مقابله کرد؟ با توجه به نوپا بودن سيستم هاي الگوريتمي از جمله هوش مصنوعي در کشور ما و روند فزاينده استفاده از اين سيستم ها در تصميم گيريهاي بخش عمومي و خصوصي، لازم است مفهوم تبعيض الگوريتمي و علل آن تبيين شده و راهکارهاي لازم براي پيشگيري از چنين تبعيض هايي اتخاذ شود.
براي مثال برخي افراد ممکن است بسيار مراقب باشند که چه اطلاعاتي را در مورد خودشان در فضاي عمومي منتشر مي کنند و احتياط آن ها در عدم افشاي داده هاي شخصي، به نبود داده هاي آن ها در مجموعه داده هاي مورد استفاده سيستم هاي هوش مصنوعي منجر شود International Working Group on Data Protection in) (٣٠ .
com/science/article/pii/S٠٢٦٧٣٦٤٩١٨٣٠٣٧٥٣//https: ٦٠_cit به موجب ماده ٣٨ قانون فدرال حمايت از داده ها٢٧ علاوه بر استثناهاي مقر در ماده مذکور، حق افراد در خصوص اينکه موضوع تصميمات صرفا مبتني بر پردازش خودکار قرار نگيرند، در زمينه ارائه خدمات به موجب قرارداد بيمه اعمال نمي شود.
9. ITU, Security, Infrastructure and Trust Working Group, Report of Trust Workstream, Big data, machine learning, consumer protection and privacy, 2018, https://www.
Paterson, Moira and McDonagh, Maeve )2019(, “Data Protection in an Era of Big Data: The Challenges Posed by Big Personal Data”, Monash University Law Review, Vol. 44, No. 1, https://www.