در قسمت اول پایگاه خبری احوال نیوز به ترجه چالش های اجتماعی هوش مصنوعی پرداخت در این جلسه به چالش هایحقوقی خواهیم پرداخت .
چالش های حقوقی هوش مصنوعی
هوش مصنوعی با توجه به ویژگی چندوجهی آن، ذاتاً طیف کاملی از زمینههای حقوقی از جمله فلسفه حقوق، حقوق بشر، قانون قرارداد، قانون جرم، قانون کار، قانون جزا، قانون مالیات، قوانین رویهای و غیره را در بر میگیرد. در حالی که در عمل هوش مصنوعی از نظر استفاده از آن توسط وکلا و در صنعت حقوقی به تازگی شروعبه کار کرده است (Miller, 2017)، محققان حقوقی برای مدت طولانی سرگرم هوش مصنوعی بوده اند (مجله “AI and Law”، به عنوان مثال، به سال ۱۹۹۱ باز می گردد).
یکی از آشکارترین موضوعات حقوقی مربوط به قانون و هوش مصنوعی مربوط به قابلیت ثبت اختراع، نقض مشترک، و کیفیت پتنت است (رابینسون، ۲۰۱۵a، ص ۶۵۸). اینترنت اشیا (IoT) به ارتباط بین دو یا چند شی هوشمند و مصرفکنندگان متکی است و این چالش برانگیز است که آیا مخترعان انواع خاصی از برنامههای کاربردی اینترنت اشیا قادر به غلبه بر آزمون واجد شرایط بودن حق ثبت اختراع هستند یا خیر. علاوه بر این، حتی اگر آنها اختراعات مربوط به روشها و پروتکلهای جدید را دریافت کنند، ممکن است اجرای پتنتها در برابر نقضکنندگان متعدد بسیار دشوار باشد (Robinson, 2015b, p. 1961).
علاوه بر این، از آنجایی که جمعآوری و تجزیه و تحلیل دادهها به تدریج از شرکتهای نرمافزاری به شرکتهای تولیدی گسترش مییابد، که شروع به بهرهبرداری از امکانات ناشی از جمعآوری و بهرهبرداری از دادههای بالقوه کردهاند، به طوری که میتوان ارزش افزوده ایجاد کرد (Bessis and Dobre 2014؛ Opresnik and Taisch 2015, ‘alpresniksoloetsion, p. 174; دادهها (data deluge) نگرانیهای حقوقی مختلفی را باز میکند که میتواند واکنشهای نظارتی را تحریک کند. در حالی که ادعا میشود دادهها به ماده خام تولید و منبع جدیدی از ارزش اقتصادی و اجتماعی عظیم تبدیل شده باشند (Polonetsky and Tene, 2012, p. 63)، دادههای بزرگ بهعنوان «چیز بزرگ بعدی در نوآوری» شناسایی شدهاند (Gobble, 2013, p. 64), ‘the fourth paradigm of Science, 120, p3, the next, 20. نوآوری، رقابت و بهره وری» (Manyika و Bughin، ۲۰۱۱). با این حال، از سوی دیگر، سؤالات باز از این که چه کسی حق استفاده از این داده ها را دارد، آیا می توان داده ها را مبادله کرد و اگر چنین است، چه قوانینی در این مورد اعمال می شود را شامل می شود. برای جلوگیری از کاهش اقتصاد داده و نوآوری، مقررات «هوشمند» برای ایجاد تعادل بین استفادههای مفید از دادهها و حفاظت از حریم خصوصی، عدم تبعیض و سایر ارزشهای قانونی مورد نیاز است. جمع آوری مجموعه داده های بزرگ و استفاده از تجزیه و تحلیل داده های مدرن، تهدیدی آشکار برای حمایت از حقوق اساسی شهروندان اروپایی از جمله حق حریم خصوصی است (برکان، ۲۰۱۵؛ لینسکی، ۲۰۱۴).
ثالثاً، فناوری اطلاعات و ارتباطات نقش مصرف کننده را «از منزوی به متصل، از ناآگاه به آگاه، از منفعل به فعال» تغییر می دهد (پراهالاد و راماسوامی، ۲۰۰۴). با توجه به اینکه مردم به طور فزاینده ای قادر به استفاده از خدمات دیجیتال هستند، گاهی اوقات به این فرآیند «دیجیتالی شدن» مصرف کننده نیز گفته می شود (Mäenpää and Korhonen, 2015). نسل های جوان با دیجیتالی شدن بزرگ شده اند و مشتاقانه در خط مقدم پذیرش فناوری جدید هستند. این می تواند به این معنی باشد که این فرض سنتی در حقوق مصرف کننده مبنی بر اینکه مصرف کننده بی اطلاع است و بنابراین نیاز به حمایت قانونی خاص دارد دیگر صادق نیست. با این وجود، این تغییر آنقدر سریع است که نسلهای قبل از اینترنت به سختی از این روش پیروی میکنند و روشهای جدید تولید خطرات جدیدی را برای مصرفکنندگان به همراه دارد و بنابراین قوانین مصرفکننده باید با چالشهای جدید سازگار شوند.
در نهایت، سیاست مالیاتی نقش بسیار مهمی در عصر اشیاء هوشمند خواهد داشت، به ویژه با توجه به اینکه هزینه های نیروی انسانی در حال افزایش است، به طوری که به طور گسترده انتظار می رود که اتوماسیون منجر به از دست دادن شغل قابل توجهی شود. از آنجایی که اکثریت قریب به اتفاق درآمدهای مالیاتی اکنون از نیروی کار ناشی می شود، شرکت ها با افزایش اتوماسیون از مالیات اجتناب می کنند. بنابراین ادعا می شود که از آنجایی که ربات ها مالیات دهندگان خوبی نیستند، برخی از اشکال مالیات اتوماسیون باید برای حمایت از اولویت ها برای کارگران انسانی معرفی شوند.
تمرکز این بررسی بر جنبه های قانون جرم اشیاء هوشمند است. قانون شکنجه بار زیان را از طرف زیان دیده به طرفی منتقل می کند که مقصر است یا بهتر است بار زیان را تحمل کند. به طور معمول، طرفی که به دنبال جبران خسارت از طریق قانون شکنجه است، خسارات وارده را در قالب غرامت پولی درخواست می کند. هدف قانون شکنجه کاهش تصادفات، ترویج انصاف، ارائه ابزار صلح آمیز حل اختلاف و غیره است (ابوت، ۲۰۱۸، ص ۳).
با توجه به سطح تقصیر، جرایم به سه دسته کلی تقسیم می شوند:
الف..جرایم عمدی خطاهایی هستند که متهم عمداً باعث آن شده است (مثلاً ضربه زدن عمدی به کسی)
. ب . تخلفات سهل انگارانه زمانی اتفاق می افتد که اقدامات متهم به طور غیرمنطقی ناامن بوده است، به این معنی که او کاری را
انجام نداده است که هر فرد معقول (متوسط) انجام می داد (مثلاً باعث تصادف با سرعت غیرمجاز)
ج.جرایم مسئولیت شدید (عینی) به میزان مراقبتی که متهم استفاده کرده است بستگی ندارد، هیچ بررسی تقصیری از طرف متهم وجود ندارد. بلکه دادگاه ها تمرکز می کنند در مورد اینکه آیا آسیب آشکار می شود. این شکل از مسئولیت معمولاً برای ساخت و فروش محصولات معیوب (مسئولیت محصولات) تجویز می شود.
ویژگی چندوجهی هوش مصنوعی چالش هایی را در زمینه تنظیم مسئولیت در قبال آسیب های ناشی از اشیاء هوشمند به همراه دارد.
قانون شکنجه – قوانین تطبیق دهنده مسئولیت و ایمنی محصول/خدمات
در رابطه با سیستمهای خودکار، مسائل ایمنی مختلفی ممکن است ایجاد شود، علیرغم این واقعیت که سازندگان و طراحان رباتها بر روی تکمیل سیستمهای خود برای اطمینان ۱۰۰ درصد تمرکز کردهاند و در نتیجه مسئولیت را غیرمسئول میکنند (Kirkpatrick، ۲۰۱۳). ممکن است اتفاق بیفتد که فناوری رباتیک، ناخواسته یا با طراحی شکست بخورد و منجر به خسارات اقتصادی، خسارت مالی، جراحت یا از دست دادن جان شود (هیلگندورف، ۲۰۱۴، ص ۲۷). برای برخی از سیستمهای رباتیک، قانون مسئولیت سنتی محصول اعمال میشود، به این معنی که سازنده مسئولیت خرابی قطعه را بر عهده خواهد داشت، با این حال، مطمئناً پروندههای دشوارتری به دادگاه میآیند، مانند وضعیتی که به نظر میرسد یک خودروی خودران در حال انجام کاری ناامن است و راننده آن را نادیده میگیرد – آیا این تقصیر سازنده بوده است یا اینکه تقصیر شخص است (۲۰Schelleks، تقصیر شخص است).
مشکلات مشابهی ممکن است در رابطه با هواپیماهای هدایت شونده از راه دور (به اصطلاح “پهپادهای” غیرنظامی) ایجاد شود. در ایالات متحده آمریکا، پرونده ای در مورد هواپیماهای بدون سرنشین غیرنظامی قبلاً در دادگاه ظاهر شد، زمانی که اداره هوانوردی فدرال ایالات متحده حکم مجازات مدنی را علیه رافائل پیرکر صادر کرد که در سال ۲۰۱۱ به درخواست دانشگاه ویرجینیا، یک هواپیمای بدون سرنشین را بر فراز محوطه دانشگاه به پرواز درآورد تا فیلم ویدئویی به دست آورد و غرامت پرواز دریافت کرد. دادگاه بدوی تصمیم گرفت که هواپیمای بدون سرنشین هواپیما نیست، در حالی که دادگاه تجدید نظر برعکس رای داد. این پرونده ها در سال ۲۰۱۵ با پرداخت ۱٫۱۰۰ دلار به پایان رسید.
نقطه شروع برای بررسی «خطاهای رایانهای» (ابوت، ۲۰۱۸) این است – یا حداقل باید باشد – که ماشینها به طور قابل ملاحظهای ایمنتر از مردم هستند یا حداقل پتانسیل این را دارند که باشند. اگرچه رسانه ها به طور گسترده در مورد مرگ و میر مربوط به نرم افزار رانندگی خودران تسلا گزارش دادند، به طور کلی پذیرفته شده است که اتومبیل های خودران باعث تصادفات کمتری نسبت به رانندگان انسانی می شوند. بیان شده است که ۹۴ درصد از تصادفات شامل خطای انسانی است (سینگ، ۲۰۱۵). علاوه بر این، خطای پزشکی یکی از علل اصلی مرگ و میر است (کوهن و همکاران، ۲۰۰۰). در نتیجه، سیستمهای هوش مصنوعی، مانند واتسون IBM، که سوابق پزشکی بیماران را تجزیه و تحلیل میکنند و درمان بهداشتی را ارائه میکنند، لازم نیست برای بهبود ایمنی کامل باشند، بلکه بهتر از افراد هستند.
اگر کاهش تصادف در واقع یکی از اهداف اصلی، و نه اصلی قانون جرم باشد، قانونگذاران باید استانداردهایی را برای مسئولیت جرم در صورت آسیب ناشی از اشیاء هوشمند به گونه ای تطبیق دهند که قانون سرمایه گذاری در هوش مصنوعی را تشویق کند و در نتیجه ایمنی انسان را افزایش دهد. بیشتر صدماتی که افراد ایجاد می کنند تحت یک استاندارد سهل انگاری ارزیابی می شوند، جایی که عامل جرم در صورت رفتار غیر منطقی مسئول است. اگر عمل او کمتر از حد استاندارد یک فرد معقول نبود، زیان یک امر تصادفی محض تصور می شود که هیچ کس نمی تواند پاسخگو باشد. با این حال، زمانی که رایانهها آسیبهای مشابهی را ایجاد میکنند، یک استاندارد مسئولیت سخت اعمال میشود، به این معنی که فرقی نمیکند کسی برای آسیب وارده مقصر باشد یا خیر. این تمایز پیامدهای مالی دارد و از اتوماسیون جلوگیری می کند، زیرا اشیاء کنترل شده توسط رایانه مسئولیت بیشتری نسبت به افراد برای تولید کننده یا مالک دارند. علاوه بر این، اگر بخواهیم ایمنی را از طریق استفاده گسترده تر از اتوماسیون بهبود دهیم، مقررات فعلی اثر معکوس دارد.
از آنجایی که در حال حاضر مسئولیت محصول سخت است، که مستقل از تقصیر است، در حالی که فعالیت های انسانی بر اساس استاندارد یک فرد معقول اندازه گیری می شود، محققان حقوقی ادعا می کنند که برای ایجاد انگیزه در اتوماسیون و بهبود بیشتر ایمنی، لازم است با عامل خطای رایانه ای به عنوان یک شخص رفتار شود تا یک محصول. بنابراین دفاع میشود که در جایی که اتوماسیون و دیجیتالیسازی ایمنی را بهبود میبخشد، اشیاء هوشمند باید تحت یک استاندارد سهل انگاری ارزیابی شوند، نه یک استاندارد مسئولیت سخت و مسئولیت آسیب با یک فرد معقول مقایسه شود (ابوت، ۲۰۱۸، ص ۴). علاوه بر این، هنگامی که ثابت شود رایانه ها از مردم ایمن تر هستند، می توانند مبنای استاندارد جدیدی از مراقبت از انسان ها قرار دهند، به طوری که اعمال انسان از این منظر ارزیابی شود که رایانه چه کاری انجام می دهد و چگونه استفاده از رایانه انسان می تواند از حوادث و آسیب های متعاقب آن جلوگیری کند.
با این وجود، حقوقدانان به طور گسترده از مسئولیت اکید در قبال اشیاء هوشمند یا از برخی جنبهها حتی گستردهتر از آنچه در حال حاضر پیشبینی میشود، دفاع میکنند، بهویژه از نظر ارگانهایی که میتوانند مسئول شناخته شوند – از تولیدکننده، توزیعکننده، فروشنده، و همچنین ارائهدهنده مخابرات، زمانی که برای مثال، حادثه به دلیل عدم اتصال به اینترنت ایجاد شده است. در سطح اتحادیه اروپا، با توجه به اینکه دستورالعمل مسئولیت محصول (۸۵/۳۷۴/EEC) در کالاهای ملموس، خدمات ناکافی، توصیه های بی دقت، تشخیص های اشتباه و اطلاعات ناقص به خودی خود در این بخشنامه گنجانده نشده است. با این وجود، مهم است که وقتی خسارت ناشی از یک محصول معیوب، مورد استفاده در ارائه خدمات، ایجاد میشود، بر اساس دستورالعمل مسئولیت محصول (Grubb and Howells, 2007)، تنظیم کننده آزمون مسئولیت دقیق (همچنین به تصمیمات دادگاه اتحادیه اروپا در مورد پروندههای C-203/99، Veedfald و C-495/10، مراجعه کنید) قابل بازیابی باشد. بنابراین، بسیاری از اقدامات روباتها، از جمله نرمافزارهایی که روی یک رسانه ملموس ذخیره میشوند، در محدوده این دستورالعمل قرار میگیرند. این بدان معناست که در صورتی که مصرفکنندهای که خودروی او به دلیل نقص نرمافزار باعث تصادف میشود، یا بیمار که به دلیل نقص در نرمافزار مصرفکننده دچار دوز اشتباه تابش میشود، ممکن است ادعایی را تحت دستورالعمل مسئولیت محصول علیه تولیدکننده نرمافزار مطرح کند (Wuyts, 2014, p. 5). با این حال، هنگامی که نرم افزار از طریق اینترنت (به اصطلاح نرم افزار غیر تعبیه شده) عرضه می شود، ایرادات احتمالی در محدوده این دستورالعمل قرار نمی گیرد و یک بخشنامه خاص در مورد مسئولیت تامین کنندگان محتوای دیجیتال مورد نیاز است.
تا آنجا که به مقررات ایمنی محصول مربوط می شود، ماده ۲ (۱) دستورالعمل ۲۰۰۱/۹۵ در مورد ایمنی عمومی محصول، محدوده رژیم ایمنی محصول را شامل هر محصولی که برای استفاده مصرف کننده در نظر گرفته شده است یا احتمالاً توسط مصرف کنندگان “از جمله در زمینه ارائه خدمات” استفاده می شود، تعریف می کند. با این وجود، این امر ایمنی خدمات را پوشش نمی دهد (Weatherill, 2013, p. 282). از این رو، کشورهای عضو اتحادیه اروپا باید قوانینی را اتخاذ کنند که استانداردهای ایمنی خدمات را تعیین می کند، که در زمان توسعه گسترده فناوری، راه حل ترجیحی نیست. تجزیه و تحلیل تناسب مقررات ایمنی موجود، برای مثال، در رابطه با عملکردهای محصول مبتنی بر نرمافزار مورد نیاز است که میتوانند پس از تحویل بیشتر و بیشتر اصلاح شوند (WDMA، ۲۰۱۶، ص ۱۲).
علاوه بر این، در رابطه با هواپیماهای بدون سرنشین، کمیسیون اتحادیه اروپا پیش از این در سال ۲۰۱۴ خواستار «استانداردهای سخت» برای پوشش ایمنی، بیمه و مسئولیت شده است (اطلاعات مطبوعاتی IP-14-384). اروپا حدود ۲۵۰۰ اپراتور هواپیماهای بدون سرنشین کوچک غیرنظامی دارد که بیشتر از مجموع سایر نقاط جهان است. طی چند سال گذشته، کسبوکارهایی در سراسر اتحادیه اروپا ایجاد شدهاند که هواپیماهای بدون سرنشین را در کشاورزی، انرژی، نظارت بر زیرساختها، عکاسی و سایر صنایع تولید و استفاده میکنند (Stupp، ۲۰۱۵؛ Michalopoulos، ۲۰۱۶). کار نظارتی در این زمینه به آژانس ایمنی هوانوردی اروپا (EASA) سپرده شده است که در حال توسعه الزامات امنیتی لازم، و همچنین چارچوبی روشن برای مسئولیت و بیمه است (نورث، ۲۰۱۴؛ هنشون، ۲۰۱۴؛ منسینگر، ۲۰۱۵). کمیته حمل و نقل پارلمان اروپا گزارشی (۲۰۱۴/۲۲۴۳) را تصویب کرد که در آن از اروپا خواسته شد تا «تمام توان خود را برای تقویت موقعیت رقابتی قوی خود در این زمینه انجام دهد». قوانین هماهنگ در سطح اتحادیه اروپا از این نظر برای حفظ بازار واحد برای صنعت هواپیماهای بدون سرنشین مورد استقبال قرار خواهد گرفت.
با این حال، درک این نکته نیز ضروری است که هر چه سیستمها مستقلتر باشند، کمتر میتوان آنها را ابزار سادهای در دست سایر بازیگران در نظر گرفت (کمیسیون اروپایی، برنامه اقدام، ۲۰۱۴، ص ۵۹) و مقررات بسیار سختگیرانه، انتظار کمال بهجای رفتار قابل قبول ربات، ممکن است تولیدکنندگان را از سرمایهگذاری پول در ماشینهای خودران، ماشینهای هوشمند و نوآوریها منصرف کند. ۲۰۱۳؛ چوپرا و وایت، ۲۰۱۱). بنابراین مجدداً با در نظر گرفتن همه مخاطرات درگیر به مقررات هوشمند نیاز است.
در حالی که اشیاء هوشمند از کار انسان ها و همچنین مسئولیت قانونی آنها تقلید می کنند، این سؤال نیز مطرح می شود که آیا روبات ها حق شکایت، شکایت و همچنین به عنوان شاهد برای اهداف شواهد را دارند یا خیر. در حال حاضر امکان شکایت از یک ربات وجود ندارد، زیرا آنها مانند یک چتر دارایی هستند. اشیاء هوشمند هویت قانونی ندارند و قابل اصلاح برای شکایت یا شکایت نیستند. اگر یک ربات باعث آسیب شود، شخص آسیب دیده باید از مالک آن شکایت کند. با این حال، با مقایسه رباتها با شرکتها، برای اهداف رویهای، شرکتها نیز برای مدت طولانی در تاریخ به عنوان اشخاص حقوقی مجزا از مالک انسان رفتار نمیکردند (ابوت و سارچ، ۲۰۱۹). با این وجود، با گذشت زمان، قانونگذاران و دادگاهها مدل تلقی شرکتها را صرفاً به عنوان دارایی کنار گذاشتند و به آنها یک شخصیت مصنوعی مستقل اعطا کردند که به آنها امکان دادخواهی و شکایت کنند. بنابراین در رابطه با روبات ها باید مشخص شود که آیا آنها بیشتر شبیه کارمند هستند، یک کودک، یک حیوان، یک پیمانکار فرعی یا چیز دیگری (Michalski, 2018, p. 1021).
https://www.nature.com/articles/s41599-019-0278-x
قسمت اول را می توانید در لینک زیر مطالعه کنید.
https://ahvalnews.ir/1402/03/31/چالش-های-اجتماعی-و-حقوقی-هوش-مصنوعی-قسم/
مترجم مهدی امیدوار
انتهای پیام/*