اجتماعی استان اقتصادی بهداشت بین الملل چندر رسانه حقوق بشر حوادث دین و اندیشه سیاسی فرهنگ و هنر ورزشی یادداشت/مقاله/گفتگو/مصاحبه

چالش های اجتماعی و حقوقی هوش مصنوعی( قسمت دوم)

در قسمت اول پایگاه خبری احوال نیوز به ترجه چالش های اجتماعی هوش مصنوعی پرداخت در این جلسه به چالش هایحقوقی خواهیم پرداخت .

چالش های حقوقی هوش مصنوعی

هوش مصنوعی با توجه به ویژگی چندوجهی آن، ذاتاً طیف کاملی از زمینه‌های حقوقی از جمله فلسفه حقوق، حقوق بشر، قانون قرارداد، قانون جرم، قانون کار، قانون جزا، قانون مالیات، قوانین رویه‌ای و غیره را در بر می‌گیرد. در حالی که در عمل هوش مصنوعی از نظر استفاده از آن توسط وکلا و در صنعت حقوقی به تازگی شروعبه کار کرده است (Miller, 2017)، محققان حقوقی برای مدت طولانی سرگرم هوش مصنوعی  بوده اند (مجله “AI and Law”، به عنوان مثال، به سال ۱۹۹۱ باز می گردد).

یکی از آشکارترین موضوعات حقوقی مربوط به قانون و هوش مصنوعی مربوط به قابلیت ثبت اختراع، نقض مشترک، و کیفیت پتنت است (رابینسون، ۲۰۱۵a، ص ۶۵۸). اینترنت اشیا (IoT) به ارتباط بین دو یا چند شی هوشمند و مصرف‌کنندگان متکی است و این چالش برانگیز است که آیا مخترعان انواع خاصی از برنامه‌های کاربردی اینترنت اشیا قادر به غلبه بر آزمون واجد شرایط بودن حق ثبت اختراع هستند یا خیر. علاوه بر این، حتی اگر آنها اختراعات مربوط به روش‌ها و پروتکل‌های جدید را دریافت کنند، ممکن است اجرای پتنت‌ها در برابر نقض‌کنندگان متعدد بسیار دشوار باشد (Robinson, 2015b, p. 1961).

علاوه بر این، از آنجایی که جمع‌آوری و تجزیه و تحلیل داده‌ها به تدریج از شرکت‌های نرم‌افزاری به شرکت‌های تولیدی گسترش می‌یابد، که شروع به بهره‌برداری از امکانات ناشی از جمع‌آوری و بهره‌برداری از داده‌های بالقوه کرده‌اند، به طوری که می‌توان ارزش افزوده ایجاد کرد (Bessis and Dobre 2014؛ Opresnik and Taisch 2015, ‘alpresniksoloetsion, p. 174; داده‌ها (data deluge) نگرانی‌های حقوقی مختلفی را باز می‌کند که می‌تواند واکنش‌های نظارتی را تحریک کند. در حالی که ادعا می‌شود داده‌ها به ماده خام تولید و منبع جدیدی از ارزش اقتصادی و اجتماعی عظیم تبدیل شده‌ باشند (Polonetsky and Tene, 2012, p. 63)، داده‌های بزرگ به‌عنوان «چیز بزرگ بعدی در نوآوری» شناسایی شده‌اند (Gobble, 2013, p. 64), ‘the fourth paradigm of Science, 120, p3, the next, 20. نوآوری، رقابت و بهره وری» (Manyika و Bughin، ۲۰۱۱). با این حال، از سوی دیگر، سؤالات باز از این که چه کسی حق استفاده از این داده ها را دارد، آیا می توان داده ها را مبادله کرد و اگر چنین است، چه قوانینی در این مورد اعمال می شود را شامل می شود. برای جلوگیری از کاهش اقتصاد داده و نوآوری، مقررات «هوشمند» برای ایجاد تعادل بین استفاده‌های مفید از داده‌ها و حفاظت از حریم خصوصی، عدم تبعیض و سایر ارزش‌های قانونی مورد نیاز است. جمع آوری مجموعه داده های بزرگ و استفاده از تجزیه و تحلیل داده های مدرن، تهدیدی آشکار برای حمایت از حقوق اساسی شهروندان اروپایی از جمله حق حریم خصوصی است (برکان، ۲۰۱۵؛ لینسکی، ۲۰۱۴).

ثالثاً، فناوری اطلاعات و ارتباطات نقش مصرف کننده را «از منزوی به متصل، از ناآگاه به آگاه، از منفعل به فعال» تغییر می دهد (پراهالاد و راماسوامی، ۲۰۰۴). با توجه به اینکه مردم به طور فزاینده ای قادر به استفاده از خدمات دیجیتال هستند، گاهی اوقات به این فرآیند «دیجیتالی شدن» مصرف کننده نیز گفته می شود (Mäenpää and Korhonen, 2015). نسل های جوان با دیجیتالی شدن بزرگ شده اند و مشتاقانه در خط مقدم پذیرش فناوری جدید هستند. این می تواند به این معنی باشد که این فرض سنتی در حقوق مصرف کننده مبنی بر اینکه مصرف کننده بی اطلاع است و بنابراین نیاز به حمایت قانونی خاص دارد دیگر صادق نیست. با این وجود، این تغییر آنقدر سریع است که نسل‌های قبل از اینترنت به سختی از این روش پیروی می‌کنند و روش‌های جدید تولید خطرات جدیدی را برای مصرف‌کنندگان به همراه دارد و بنابراین قوانین مصرف‌کننده باید با چالش‌های جدید سازگار شوند.

در نهایت، سیاست مالیاتی نقش بسیار مهمی در عصر اشیاء هوشمند خواهد داشت، به ویژه با توجه به اینکه هزینه های نیروی انسانی در حال افزایش است، به طوری که به طور گسترده انتظار می رود که اتوماسیون منجر به از دست دادن شغل قابل توجهی شود. از آنجایی که اکثریت قریب به اتفاق درآمدهای مالیاتی اکنون از نیروی کار ناشی می شود، شرکت ها با افزایش اتوماسیون از مالیات اجتناب می کنند. بنابراین ادعا می شود که از آنجایی که ربات ها مالیات دهندگان خوبی نیستند، برخی از اشکال مالیات اتوماسیون باید برای حمایت از اولویت ها برای کارگران انسانی معرفی شوند.

تمرکز این بررسی بر جنبه های قانون جرم اشیاء هوشمند است. قانون شکنجه بار زیان را از طرف زیان دیده به طرفی منتقل می کند که مقصر است یا بهتر است بار زیان را تحمل کند. به طور معمول، طرفی که به دنبال جبران خسارت از طریق قانون شکنجه است، خسارات وارده را در قالب غرامت پولی درخواست می کند. هدف قانون شکنجه کاهش تصادفات، ترویج انصاف، ارائه ابزار صلح آمیز حل اختلاف و غیره است (ابوت، ۲۰۱۸، ص ۳).

با توجه به سطح تقصیر، جرایم به سه دسته کلی تقسیم می شوند:

 الف..جرایم عمدی خطاهایی هستند که متهم عمداً باعث آن شده است (مثلاً ضربه زدن عمدی به کسی)

. ب . تخلفات سهل انگارانه زمانی اتفاق می افتد که اقدامات متهم به طور غیرمنطقی ناامن بوده است، به این معنی که او کاری را

 انجام نداده است که هر فرد معقول (متوسط) انجام می داد (مثلاً باعث تصادف با سرعت غیرمجاز)

ج.جرایم مسئولیت شدید (عینی) به میزان مراقبتی که متهم استفاده کرده است بستگی ندارد، هیچ بررسی تقصیری از طرف متهم وجود ندارد. بلکه دادگاه ها تمرکز می کنند در مورد اینکه آیا آسیب آشکار می شود. این شکل از مسئولیت معمولاً برای ساخت و فروش محصولات معیوب (مسئولیت محصولات) تجویز می شود.

ویژگی چندوجهی هوش مصنوعی چالش هایی را در زمینه تنظیم مسئولیت در قبال آسیب های ناشی از اشیاء هوشمند به همراه دارد.

قانون شکنجه – قوانین تطبیق دهنده مسئولیت و ایمنی محصول/خدمات

در رابطه با سیستم‌های خودکار، مسائل ایمنی مختلفی ممکن است ایجاد شود، علی‌رغم این واقعیت که سازندگان و طراحان ربات‌ها بر روی تکمیل سیستم‌های خود برای اطمینان ۱۰۰ درصد تمرکز کرده‌اند و در نتیجه مسئولیت را غیرمسئول می‌کنند (Kirkpatrick، ۲۰۱۳). ممکن است اتفاق بیفتد که فناوری رباتیک، ناخواسته یا با طراحی شکست بخورد و منجر به خسارات اقتصادی، خسارت مالی، جراحت یا از دست دادن جان شود (هیلگندورف، ۲۰۱۴، ص ۲۷). برای برخی از سیستم‌های رباتیک، قانون مسئولیت سنتی محصول اعمال می‌شود، به این معنی که سازنده مسئولیت خرابی قطعه را بر عهده خواهد داشت، با این حال، مطمئناً پرونده‌های دشوارتری به دادگاه می‌آیند، مانند وضعیتی که به نظر می‌رسد یک خودروی خودران در حال انجام کاری ناامن است و راننده آن را نادیده می‌گیرد – آیا این تقصیر سازنده بوده است یا اینکه تقصیر شخص است (۲۰Schelleks، تقصیر شخص است).

مشکلات مشابهی ممکن است در رابطه با هواپیماهای هدایت شونده از راه دور (به اصطلاح “پهپادهای” غیرنظامی) ایجاد شود. در ایالات متحده آمریکا، پرونده ای در مورد هواپیماهای بدون سرنشین غیرنظامی قبلاً در دادگاه ظاهر شد، زمانی که اداره هوانوردی فدرال ایالات متحده حکم مجازات مدنی را علیه رافائل پیرکر صادر کرد که در سال ۲۰۱۱ به درخواست دانشگاه ویرجینیا، یک هواپیمای بدون سرنشین را بر فراز محوطه دانشگاه به پرواز درآورد تا فیلم ویدئویی به دست آورد و غرامت پرواز دریافت کرد. دادگاه بدوی تصمیم گرفت که هواپیمای بدون سرنشین هواپیما نیست، در حالی که دادگاه تجدید نظر برعکس رای داد. این پرونده ها در سال ۲۰۱۵ با پرداخت ۱٫۱۰۰ دلار به پایان رسید.

نقطه شروع برای بررسی «خطاهای رایانه‌ای» (ابوت، ۲۰۱۸) این است – یا حداقل باید باشد – که ماشین‌ها به طور قابل ملاحظه‌ای ایمن‌تر از مردم هستند یا حداقل پتانسیل این را دارند که باشند. اگرچه رسانه ها به طور گسترده در مورد مرگ و میر مربوط به نرم افزار رانندگی خودران تسلا گزارش دادند، به طور کلی پذیرفته شده است که اتومبیل های خودران باعث تصادفات کمتری نسبت به رانندگان انسانی می شوند. بیان شده است که ۹۴ درصد از تصادفات شامل خطای انسانی است (سینگ، ۲۰۱۵). علاوه بر این، خطای پزشکی یکی از علل اصلی مرگ و میر است (کوهن و همکاران، ۲۰۰۰). در نتیجه، سیستم‌های هوش مصنوعی، مانند واتسون IBM، که سوابق پزشکی بیماران را تجزیه و تحلیل می‌کنند و درمان بهداشتی را ارائه می‌کنند، لازم نیست برای بهبود ایمنی کامل باشند، بلکه بهتر از افراد هستند.

اگر کاهش تصادف در واقع یکی از اهداف اصلی، و نه اصلی قانون جرم باشد، قانونگذاران باید استانداردهایی را برای مسئولیت جرم در صورت آسیب ناشی از اشیاء هوشمند به گونه ای تطبیق دهند که قانون سرمایه گذاری در هوش مصنوعی را تشویق کند و در نتیجه ایمنی انسان را افزایش دهد. بیشتر صدماتی که افراد ایجاد می کنند تحت یک استاندارد سهل انگاری ارزیابی می شوند، جایی که عامل جرم در صورت رفتار غیر منطقی مسئول است. اگر عمل او کمتر از حد استاندارد یک فرد معقول نبود، زیان یک امر تصادفی محض تصور می شود که هیچ کس نمی تواند پاسخگو باشد. با این حال، زمانی که رایانه‌ها آسیب‌های مشابهی را ایجاد می‌کنند، یک استاندارد مسئولیت سخت اعمال می‌شود، به این معنی که فرقی نمی‌کند کسی برای آسیب وارده مقصر باشد یا خیر. این تمایز پیامدهای مالی دارد و از اتوماسیون جلوگیری می کند، زیرا اشیاء کنترل شده توسط رایانه مسئولیت بیشتری نسبت به افراد برای تولید کننده یا مالک دارند. علاوه بر این، اگر بخواهیم ایمنی را از طریق استفاده گسترده تر از اتوماسیون بهبود دهیم، مقررات فعلی اثر معکوس دارد.

از آنجایی که در حال حاضر مسئولیت محصول سخت است، که مستقل از تقصیر است، در حالی که فعالیت های انسانی بر اساس استاندارد یک فرد معقول اندازه گیری می شود، محققان حقوقی ادعا می کنند که برای ایجاد انگیزه در اتوماسیون و بهبود بیشتر ایمنی، لازم است با عامل خطای رایانه ای به عنوان یک شخص رفتار شود تا یک محصول. بنابراین دفاع می‌شود که در جایی که اتوماسیون و دیجیتالی‌سازی ایمنی را بهبود می‌بخشد، اشیاء هوشمند باید تحت یک استاندارد سهل انگاری ارزیابی شوند، نه یک استاندارد مسئولیت سخت و مسئولیت آسیب با یک فرد معقول مقایسه شود (ابوت، ۲۰۱۸، ص ۴). علاوه بر این، هنگامی که ثابت شود رایانه ها از مردم ایمن تر هستند، می توانند مبنای استاندارد جدیدی از مراقبت از انسان ها قرار دهند، به طوری که اعمال انسان از این منظر ارزیابی شود که رایانه چه کاری انجام می دهد و چگونه استفاده از رایانه انسان می تواند از حوادث و آسیب های متعاقب آن جلوگیری کند.

با این وجود، حقوقدانان به طور گسترده از مسئولیت اکید در قبال اشیاء هوشمند یا از برخی جنبه‌ها حتی گسترده‌تر از آنچه در حال حاضر پیش‌بینی می‌شود، دفاع می‌کنند، به‌ویژه از نظر ارگان‌هایی که می‌توانند مسئول شناخته شوند – از تولیدکننده، توزیع‌کننده، فروشنده، و همچنین ارائه‌دهنده مخابرات، زمانی که برای مثال، حادثه به دلیل عدم اتصال به اینترنت ایجاد شده است. در سطح اتحادیه اروپا، با توجه به اینکه دستورالعمل مسئولیت محصول (۸۵/۳۷۴/EEC) در کالاهای ملموس، خدمات ناکافی، توصیه های بی دقت، تشخیص های اشتباه و اطلاعات ناقص به خودی خود در این بخشنامه گنجانده نشده است. با این وجود، مهم است که وقتی خسارت ناشی از یک محصول معیوب، مورد استفاده در ارائه خدمات، ایجاد می‌شود، بر اساس دستورالعمل مسئولیت محصول (Grubb and Howells, 2007)، تنظیم کننده آزمون مسئولیت دقیق (همچنین به تصمیمات دادگاه اتحادیه اروپا در مورد پرونده‌های C-203/99، Veedfald و C-495/10، مراجعه کنید) قابل بازیابی باشد. بنابراین، بسیاری از اقدامات روبات‌ها، از جمله نرم‌افزارهایی که روی یک رسانه ملموس ذخیره می‌شوند، در محدوده این دستورالعمل قرار می‌گیرند. این بدان معناست که در صورتی که مصرف‌کننده‌ای که خودروی او به دلیل نقص نرم‌افزار باعث تصادف می‌شود، یا بیمار که به دلیل نقص در نرم‌افزار مصرف‌کننده دچار دوز اشتباه تابش می‌شود، ممکن است ادعایی را تحت دستورالعمل مسئولیت محصول علیه تولیدکننده نرم‌افزار مطرح کند (Wuyts, 2014, p. 5). با این حال، هنگامی که نرم افزار از طریق اینترنت (به اصطلاح نرم افزار غیر تعبیه شده) عرضه می شود، ایرادات احتمالی در محدوده این دستورالعمل قرار نمی گیرد و یک بخشنامه خاص در مورد مسئولیت تامین کنندگان محتوای دیجیتال مورد نیاز است.

تا آنجا که به مقررات ایمنی محصول مربوط می شود، ماده ۲ (۱) دستورالعمل ۲۰۰۱/۹۵ در مورد ایمنی عمومی محصول، محدوده رژیم ایمنی محصول را  شامل هر محصولی که برای استفاده مصرف کننده در نظر گرفته شده است یا احتمالاً توسط مصرف کنندگان “از جمله در زمینه ارائه خدمات” استفاده می شود، تعریف می کند. با این وجود، این امر ایمنی خدمات را پوشش نمی دهد (Weatherill, 2013, p. 282). از این رو، کشورهای عضو اتحادیه اروپا باید قوانینی را اتخاذ کنند که استانداردهای ایمنی خدمات را تعیین می کند، که در زمان توسعه گسترده فناوری، راه حل ترجیحی نیست. تجزیه و تحلیل تناسب مقررات ایمنی موجود، برای مثال، در رابطه با عملکردهای محصول مبتنی بر نرم‌افزار مورد نیاز است که می‌توانند پس از تحویل بیشتر و بیشتر اصلاح شوند (WDMA، ۲۰۱۶، ص ۱۲).

علاوه بر این، در رابطه با هواپیماهای بدون سرنشین، کمیسیون اتحادیه اروپا پیش از این در سال ۲۰۱۴ خواستار «استانداردهای سخت» برای پوشش ایمنی، بیمه و مسئولیت شده است (اطلاعات مطبوعاتی IP-14-384). اروپا حدود ۲۵۰۰ اپراتور هواپیماهای بدون سرنشین کوچک غیرنظامی دارد که بیشتر از مجموع سایر نقاط جهان است. طی چند سال گذشته، کسب‌وکارهایی در سراسر اتحادیه اروپا ایجاد شده‌اند که هواپیماهای بدون سرنشین را در کشاورزی، انرژی، نظارت بر زیرساخت‌ها، عکاسی و سایر صنایع تولید و استفاده می‌کنند (Stupp، ۲۰۱۵؛ Michalopoulos، ۲۰۱۶). کار نظارتی در این زمینه به آژانس ایمنی هوانوردی اروپا (EASA) سپرده شده است که در حال توسعه الزامات امنیتی لازم، و همچنین چارچوبی روشن برای مسئولیت و بیمه است (نورث، ۲۰۱۴؛ هنشون، ۲۰۱۴؛ منسینگر، ۲۰۱۵). کمیته حمل و نقل پارلمان اروپا گزارشی (۲۰۱۴/۲۲۴۳) را تصویب کرد که در آن از اروپا خواسته شد تا «تمام توان خود را برای تقویت موقعیت رقابتی قوی خود در این زمینه انجام دهد». قوانین هماهنگ در سطح اتحادیه اروپا از این نظر برای حفظ بازار واحد برای صنعت هواپیماهای بدون سرنشین مورد استقبال قرار خواهد گرفت.

با این حال، درک این نکته نیز ضروری است که هر چه سیستم‌ها مستقل‌تر باشند، کمتر می‌توان آن‌ها را ابزار ساده‌ای در دست سایر بازیگران در نظر گرفت (کمیسیون اروپایی، برنامه اقدام، ۲۰۱۴، ص ۵۹) و مقررات بسیار سخت‌گیرانه، انتظار کمال به‌جای رفتار قابل قبول ربات، ممکن است تولیدکنندگان را از سرمایه‌گذاری پول در ماشین‌های خودران، ماشین‌های هوشمند و نوآوری‌ها منصرف کند. ۲۰۱۳؛ چوپرا و وایت، ۲۰۱۱). بنابراین مجدداً با در نظر گرفتن همه مخاطرات درگیر به مقررات هوشمند نیاز است.

در حالی که اشیاء هوشمند از کار انسان ها و همچنین مسئولیت قانونی آنها تقلید می کنند، این سؤال نیز مطرح می شود که آیا روبات ها حق شکایت، شکایت و همچنین به عنوان شاهد برای اهداف شواهد را دارند یا خیر. در حال حاضر امکان شکایت از یک ربات وجود ندارد، زیرا آنها مانند یک چتر دارایی هستند. اشیاء هوشمند هویت قانونی ندارند و قابل اصلاح برای شکایت یا شکایت نیستند. اگر یک ربات باعث آسیب شود، شخص آسیب دیده باید از مالک آن شکایت کند. با این حال، با مقایسه ربات‌ها با شرکت‌ها، برای اهداف رویه‌ای، شرکت‌ها نیز برای مدت طولانی در تاریخ به عنوان اشخاص حقوقی مجزا از مالک انسان رفتار نمی‌کردند (ابوت و سارچ، ۲۰۱۹). با این وجود، با گذشت زمان، قانونگذاران و دادگاه‌ها مدل تلقی شرکت‌ها را صرفاً به عنوان دارایی کنار گذاشتند و به آنها یک شخصیت مصنوعی مستقل اعطا کردند که به آنها امکان دادخواهی و شکایت کنند. بنابراین در رابطه با روبات ها باید مشخص شود که آیا آنها بیشتر شبیه کارمند هستند، یک کودک، یک حیوان، یک پیمانکار فرعی یا چیز دیگری (Michalski, 2018, p. 1021).

https://www.nature.com/articles/s41599-019-0278-x

قسمت اول را می توانید در لینک زیر مطالعه کنید.

https://ahvalnews.ir/1402/03/31/چالش-های-اجتماعی-و-حقوقی-هوش-مصنوعی-قسم/

مترجم مهدی امیدوار

انتهای پیام/*

نظرات
0 0 رای ها
Article Rating
اشتراک در
اطلاع از
guest
0 Comments
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
0
افکار شما را دوست داریم، لطفا نظر دهید.x