چالش های اجتماعی و حقوقی هوش مصنوعی( قسمت اول)

با توجه به گفتمان های اخیر در باب هوش مصنوعی پایگاه خبری احوال نیوز دست به ترجمه سری مقالات معتبر علمی در این زمینه زده است مقاله ذیل از این گروه مقالات بوده و ادامه خواهد یافت .

خلاصه

هوش مصنوعی به طور یکپارچه در زندگی روزمره ما ادغام می شود و دانش و توانایی های ما را در رانندگی، اجتناب از ترافیک، یافتن دوستان، انتخاب فیلم عالی و حتی پختن یک غذای سالم تر افزایش می دهد. همچنین تأثیر قابل توجهی بر بسیاری از جنبه های جامعه و صنعت، از اکتشافات علمی، مراقبت های بهداشتی و تشخیص پزشکی گرفته تا شهرهای هوشمند، حمل و نقل و پایداری دارد. در قرن بیست و یکم که «برخورد انسان با ماشین » در حال آشکار شدن است، چندین چالش اجتماعی و حقوقی ظاهر می شود که ما آمادگی کافی برای آنها نداریم. ما در اینجا به بررسی معضلات اجتماعی می پردازیم که در آن منافع فردی با منافع دیگران در تضاد است و هوش مصنوعی ممکن است به ویژه در تصمیم گیری صحیح دچار مشکل شود. یک مثال از آن معضل اجتماعی شناخته شده وسایل نقلیه خودران است. ما همچنین چالش‌های حقوقی را با تمرکز بر جرایمی که حداقل تا حدی یا ظاهراً ناشی از هوش مصنوعی است، بررسی می‌کنیم که منجر به ضرر یا زیان مدعی می‌شود. در اینجا چالش این است که مشخص شود چه کسی از نظر قانونی مسئول است و تا چه حد. ما با یک چشم‌انداز و مجموعه‌ای کوتاه از دستورالعمل‌ها برای کاهش سازنده چالش‌های توصیف‌شده نتیجه‌گیری می‌کنیم.

مقدمه

مجموعه گسترده ای از ادبیات پیش بینی می کند که در سال های آینده اشیاء هوشمند به صورت فزاینده ای ،  مشاغلی را که مردم به طور سنتی انجام می دادند، از رانندگی، تشخیص بیماری ها، ارائه خدمات ترجمه، حفاری برای نفت گرفته تا حتی دوشیدن گاو، از دست انسان خارج کنند. (راسل و نورویگ، ۲۰۱۶). در سال ۱۹۹۹، کوین اشتون، رویاپرداز بریتانیایی، اصطلاح «اینترنت اشیا» (IoT) را ابداع کرد تا شبکه ای کلی از چیزهایی را که به هم مرتبط هستند و با یکدیگر در ارتباط هستند، همانطور که کامپیوترهای امروزی در اینترنت انجام می دهند، ابداع کند (Araujo and Spring، ۲۰۱۵؛ Miller, 2015). . اتصال اشیاء به اینترنت دسترسی به داده های حسگر از راه دور و کنترل دنیای فیزیکی از راه دور را ممکن می سازد (کوپتز، ۲۰۱۱، ص ۳۰۱). ابزارهای ارتباطی داده با داده های حسگر که از یک پیوند ارتباطی بی سیم به اینترنت پشتیبانی می کنند، «اشیاء برچسب گذاری شده» را به «اشیاء هوشمند» تغییر می دهند (Weber, 2009, p. 522; Ngai et al., 2008, p. 510; Gubbi et al., 2013، ص ۱۶۴۵؛ Chabanne و همکاران، ۲۰۱۳). با استفاده از اینترنت اشیا، تولیدکنندگان می توانند از راه دور وضعیت تجهیزات را کنترل کنند و به دنبال نشانگرهای خرابی قریب الوقوع خارج از محدوده های عادی (مانند لرزش، دما و فشار) باشند. این بدان معناست که تولید کننده می تواند بازدیدهای کمتری داشته باشد، هزینه ها را کاهش دهد و اختلال کمتر و رضایت بیشتری را برای مشتری ایجاد کند (Wilkinson et al., 2009, p. 539). تشخیص از راه دور، جایی که محصولات پیچیده تولید شده از طریق حسگرها نظارت می‌شوند، ممکن است تنها برای تعمیر ماشین‌های صنعتی مهم نباشد، بلکه برای سلامت انسان، مانند کنترل از راه دور ضربان‌سازها نیز مهم باشد (Stantchev و همکاران، ۲۰۱۵). استفاده گسترده از WiFi و ۴G امکان برقراری ارتباط با اشیاء هوشمند را بدون نیاز به اتصال فیزیکی مانند کنترل گرمایش منزل و دیگ بخار از طریق موبایل یا لپ تاپ  فراهم می کند. اشیاء هوشمند متحرک می توانند در اطراف حرکت کنند و GPS شناسایی مکان آنها را ممکن می سازد (Kopetz, 2011, p. 308). این فناوری توسعه خودروهای به اصطلاح متصل یا خودکار را تسهیل می‌کند که راننده را قادر می‌سازد به طور خودکار از تصادفات و سرعت غیرمجاز مطلع شود، همچنین دستورات صوتی، برنامه‌های پارکینگ، کنترل‌های موتور و تشخیص خودرو را امکان‌پذیر می‌سازد. پیش‌بینی می‌شود که کامیون‌ها به زودی دیگر نیازی به راننده نخواهند داشت، زیرا رایانه‌ها بدون نیاز به استراحت یا خواب آنها را هدایت می‌کنند. علاوه بر این، امروزه هر تلویزیون فیلیپس یا سامسونگ با برنامه‌ای به نام «تلویزیون هوشمند» عرضه می‌شود که عملکرد ویدیوی درخواستی، دسترسی به اینترنت و همچنین برنامه‌های رسانه‌های اجتماعی را ادغام می‌کند (Kryvinska et al., 2014). بنابراین، اشیاء به طور فزاینده ای هوشمند و در نتیجه مستقل می شوند.

با این حال، اشیاء خودمختار نیز باعث تصادف، حمله به فضای خصوصی، شکست در جراحی ها و ناتوانی در تشخیص سرطان و حتی درگیر شدن در جنایات جنگی می شوند (یو، ۲۰۱۷، ص ۴۴۳). از آنجایی که اشیاء خودمختار در خیابان ها، آسمان ها، خانه ها و محل کار رایج تر و رایج تر می شوند، جایگاه اجتماعی و قانونی آنها اهمیت بیشتری پیدا می کند. با توجه به اینکه اشیاء مستقل موضوع «اگر» نیستند، بلکه «زمان» هستند که چنین فناوری‌هایی معرفی می‌شوند، بعد نظارتی ممکن است در این زمینه تعیین‌کننده باشد، همانطور که شناسایی قبلی موقعیت‌های چالش‌برانگیز اجتماعی که نه تنها کاربر، بلکه همچنین دیگران ممکن است تحت تأثیر نامطلوب قرار گیرند. اگر فعالیت اشیاء خودمختار و به طور کلی هوش مصنوعی به درستی تنظیم نشود، به طور گسترده به عنوان جایگزینی کارآمدتر و ایمن برای اشیاء کنترل شده توسط انسان یا تصمیم گیری انسانی پذیرفته نخواهد شد. با این حال، استقلالی که ما به ماشین‌ها می‌دهیم، ممکن است بسیاری از دکترین‌های قانونی را منسوخ کند، و مهم‌تر از آن، آنچه را که ما به‌عنوان فعالیت‌های انسانی «معقول» در آینده ارزیابی می‌کنیم، تحت تأثیر قرار دهد.

بنابراین، کسب‌وکارهای مدرن و پیشرفت‌های فناوری باید با مقررات مناسبی دنبال شوند که خطرات مرتبط را کنترل کند و در نتیجه صنعت را قادر به شکوفایی کند. در عین حال، مقررات باید انعطاف پذیری کافی از خود به جا بگذارند تا قانون توسعه فناوری را محدود نکند. با توجه به اینکه صنعت و مصرف کنندگان به طور فزاینده ای هوشمند می شوند، راه حل های نظارتی هوشمند باید دنبال شود (اوتینگر، ۲۰۱۵)، ایجاد تعادل مناسب بین ایمنی، مسئولیت و رقابت از یک طرف، و نوآوری و انعطاف پذیری از سوی دیگر. در این رابطه، الزامات نظارتی می تواند توسعه فناوری را محدود کند، به ویژه اگر مسئولیت اشتباهات احتمالی سخت باشد یا اگر مالیات نیروی کار را تشویق کند، یا آن را تقویت کند، اگر استاندارد مسئولیت به گونه ای تنظیم شود که ایمنی عملکرد رایانه با ایمنی مقایسه شود. برخی از فعالیت های انسانی، مانند رانندگی.

به ویژه در اتحادیه اروپا، بحث های ظریفی در حال انجام است که چه کسی باید صلاحیت تنظیم قوانین در این زمینه را داشته باشد،. علاوه بر این، مهم است که این فرآیند نظارتی اصول حاکمیت دموکراتیک را نادیده نگیرد و صنعت در فرآیند نظارتی گنجانده شود، و همچنین خود تنظیمی در مواردی جایگزین قوانین شود.

چالش های اجتماعی هوش مصنوعی

مقررات قبلی و هر اقدام قانونی که ممکن است به دنبال داشته باشد، شناسایی موقعیت‌هایی است که هوش مصنوعی احتمالاً در هنگام تصمیم‌گیری درست به چالش کشیده می‌شود. البته برخی موقعیت ها بسیار واضح هستند. یک سیستم توصیه فیلم باید از محدودیت‌های والدین تبعیت کند و محتوای دارای رتبه R یا NC-17 را به کودک ارائه ندهد. به همین ترتیب، یک وسیله نقلیه خودران نباید بدون دلیل واضح به دیوار برخورد کند. اما اغلب اوقات موقعیت‌ها بسیار واضح نیستند، به ویژه زمانی که نه تنها کاربر بلکه دیگران نیز درگیر آن هستند.

معضلات اجتماعی موقعیت هایی هستند که در آن بهترین چیز برای یک فرد یکسان نیست یا حتی با آنچه برای دیگران بهترین است در تضاد است. قبلاً در اوایل دهه ۸۰، رابرت اکسلرود (۱۹۸۱، ص ۱۳۹۰) تصمیم گرفت تا تعیین کند که چه زمانی افراد گزینه خودخواهانه را انتخاب می کنند و چه زمانی همکاری را انتخاب می کنند و بنابراین  این را در نظر بگیرند که تا چه حد  اعمال آنها بر دیگران تأثیر می گذارد. البته، همکاری،  پیشنهاد دشواری است،  زیرا مستلزم فداکاری شخصی به نفع دیگران است. طبق کتاب بنیادی داروین “منشاء گونه ها” (۱۸۵۹)، انتخاب طبیعی به نفع شایسته ترین و موفق ترین افراد است، و بنابراین به هیچ وجه روشن نیست که چرا هر موجود زنده ای باید یک عمل نوع دوستانه ای انجام دهد که انجام آن پرهزینه ، اما به نفع دیگری است. . در تورنمنت معروف Axelrod، استراتژی به اصطلاح tit-for-tat موفق‌ترین در بازی معمای زندانیان تکراری است. استراتژی بسیار ساده است. ابتدا همکاری کنید، سپس هر کاری که حریف انجام می دهد انجام دهید. اگر حریف در دور قبل همکاری داشت، استراتژی تگفتگو  با هم تعاونی است. اگر حریف در راند قبلی فرار کرد، استراتژی گفتگو  به تت این است که شکست بخورد. این بسیار شبیه به نوع دوستی متقابل در زیست شناسی است. تحقیقات اخیر همچنین تأثیر سوگیری شناختی و تنبیه را بر همکاری در آزمایش‌های معضل اجتماعی مورد بررسی قرار داده است (وانگ و همکاران ۲۰۱۸، لی و همکاران، ۲۰۱۸)، و در واقع تحقیقات نظری فراوانی نیز به کشف آنچه ممکن است همکاری مکرر را ترویج کند اختصاص داده شده است. معضلات اجتماعی به طور کلی (وانگ و همکاران، ۲۰۱۵، پرک و سولنوکی، ۲۰۱۰، پرک و همکاران، ۲۰۱۷، تانیموتو ۲۰۱۸، ایتو و تانیموتو، ۲۰۱۸).

اما در مورد هوش مصنوعی، و به خصوص موقعیت‌های یکباره که در آن «ماشین» باید تعیین کند که آیا به نفع مالک (یا کاربر) یا به نفع دیگران عمل کند، چه می‌توان گفت. این امر توسط Bonnefon و همکاران به نقطه بسیار خوبی رسید. (۲۰۱۶، ص ۱۵۷۳)، که معضل اجتماعی وسایل نقلیه خودران را مورد مطالعه قرار داد. به ناچار چنین وسایل نقلیه ای گاهی مجبور می شوند بین دو شر یکی را انتخاب کنند، مانند زیر زدن عابران پیاده یا قربانی کردن خود و مسافرشان برای نجات عابران پیاده. سوال کلیدی این است که چگونه الگوریتم را کدگذاری کنیم تا در چنین شرایطی تصمیم “درست” بگیریم؟ و آیا اصلاً تصمیم «درست» وجود دارد؟ تحقیقات نشان داد که شرکت کنندگان در شش مطالعه مسیر  مکانیکال آمازون ، وسایل نقلیه خودرانی را تایید کردند که مسافران خود را فدای منافع بزرگتر می کنند و دوست دارند دیگران آنها را بخرند، اما خودشان ترجیح می دهند سوار وسایل نقلیه خودران شوند که به هر قیمتی از مسافرانشان محافظت می کند. به عبارت دیگر، اجازه دهید دیگران همکاری کنند، یعنی خود را فدای منافع دیگران کنند، اما ما ترجیح می دهیم در امان باشیم.

آیا این نتیجۀ وحشیانه ِ  صادقانه از یک وضعیت معضل اجتماعی که ما انسان‌ها را درگیر می‌کند، نیست. ما اجتماعی هستیم و دلسوز هستیم و به یکدیگر اهمیت می دهیم، اما در شرایط نسبتاً شدید داروین هنوز بهترین نظریه را دارد. درک این نکته مهم است که همکاری نتیجه مبارزات تکاملی ما برای بقا است. به‌عنوان یک گونه، اگر اجداد ما در حدود میلیون‌ها سال پیش مراقبت‌های آلوپرنتال و تأمین کودکان دیگر را شروع نکرده بودند، بعید بود که زنده بمانیم. این احتمالاً انگیزه‌ای برای تکامل توانایی‌های قابل‌توجه در رابطه با دیگر گونه‌های همو ( انسان ) بود که امروزه شاهد آن هستیم (بلافر هردی، ۲۰۰۹). امروز، ما هنوز در حال همکاری هستیم، و در مقیاس‌های بزرگ‌تر، تا جایی که ممکن است شایسته لقب «فوق مشارکت » باشیم (مارتین و هایفیلد، ۲۰۱۵). با این وجود، جوامع ما همچنان  میلیون‌ها نفر هستند که بدون سرپناه، غذا، و بدون برآورده کردن اساسی‌ترین نیازها برای یک زندگی شایسته، در لبه وجود زندگی می‌کنند (آرتوس برتراند، ۲۰۱۵).

بنابراین چه انتظاری از هوش مصنوعی در زمینه مدیریت چالش های اجتماعی و به ویژه معضلات اجتماعی داریم؟ ما مطمئناً توانایی نوشتن الگوریتم هایی را داریم که همیشه اقدام اجتماعی و مشارکتی را انتخاب کنند. اما چه کسی می خواهد با ماشینی رانندگی کند که ممکن است به طور بالقوه شما را بکشد تا جان دیگران را نجات دهید. با توجه به Bonnefon و همکاران. (۲۰۱۶)، در واقع خیلی از ما  موافق نیستیم. از این رو نتیجه گیری آنها، “تنظیم الگوریتم های سودمند ممکن است به طور متناقضی با به تعویق انداختن پذیرش فناوری ایمن تر، تلفات را افزایش دهد”. بنابراین ما دانش و توانایی برنامه‌ریزی ماشین‌های بسیار نوع دوستانه را داریم، اما به سادگی بیش  توانمندیم .از خود آگاه هستیم، بیش از حد از خودمان محافظت می کنیم، تا مایل به استفاده از چنین ماشین هایی باشیم.

این به نوبه خود توسعه دهندگان و مهندسان را در موقعیت دشواری قرار می دهد. که یا توسعه ماشین‌هایی است که صرفه‌جویی می‌کنند، اما تعداد کمی از آنها متقاضی خریدند، تا ماشین‌هایی را توسعه  ‌دهند که ممکن است بسیاری را بکشند تا یکی را نجات دهند و  بعید است این خودرو های هوشمند  مانند عسل بفروش برسند. با این وجود، ممکن است وضعیت به همان اندازه سیاه و سفید نباشد، زیرا خود هوش مصنوعی ممکن است یاد بگیرد که چگونه بهترین واکنش را نشان دهد. در واقع، بررسی اخیر پیساخوویچ و لرر (۲۰۱۸) نشان می‌دهد که به دلیل فراگیر بودن آنها در تعاملات اقتصادی و اجتماعی، ساخت عواملی که بتوانند معضلات اجتماعی را حل کنند از اهمیت بالایی برخوردار است. و یادگیری تقویتی عمیق به عنوان راهی برای قادر ساختن هوش مصنوعی به خوبی در معضلات اجتماعی دوجانبه اطلاعات کامل و ناقص مطرح شده است.

بیش از نیم قرن پیش، ایزاک آسیموف، نویسنده آمریکایی و استاد بیوشیمی در دانشگاه بوستون، سه قانون رباتیک را مطرح کرد. اولاً، یک ربات ممکن است به انسان آسیب نرساند یا با عدم اقدام، اجازه آسیب رساندن به انسان را ندهد. ثانیاً، یک روبات باید از دستورات داده شده توسط انسان اطاعت کند، مگر در مواردی که چنین دستوراتی با قانون اول در تضاد باشد. و سوم، یک روبات باید از وجود خود محافظت کند تا زمانی که چنین حفاظتی با قانون اول یا دوم در تضاد نباشد. بعداً، آسیموف قانون چهارم را اضافه کرد که بیان می‌کند که یک روبات ممکن است به بشریت آسیب نرساند، یا با انفعال، اجازه دهد که بشریت آسیب ببیند. اما این دوراهی‌های اجتماعی یا موقعیت‌هایی را که ماشین ناگزیر باید بین دو شر انتخاب کند را پوشش نمی‌دهد. اخیراً ناگلر و همکاران. (۲۰۱۹) گسترش این قوانین را پیشنهاد کرد، دقیقاً برای جهانی که در آن هوش مصنوعی در مورد بسیاری از مسائل از جمله زندگی و مرگ تصمیم می گیرد، بنابراین به ناچار با معضلات اخلاقی روبرو می شود. به طور خلاصه، از آنجایی که همه انسان ها باید به طور یکسان مورد قضاوت قرار گیرند، هنگامی که یک معضل اخلاقی حل می شود، اجازه دهید شانس تصمیم بگیرد. به عنوان مثال، هنگامی که یک خودروی خودران باید تصمیم بگیرد که آیا مسافر را به دیوار بکشد یا عابر پیاده را زیر پا بگذارد، باید یک سکه پرتاب کرد و مطابق با آن عمل کرد. سر آن دیوار است،  یا دم آن عابر پیاده است. هنوز هیچ مطالعه ای در مورد اینکه خریداران بالقوه چنین خودرویی با دانستن اینکه چنین الگوریتمی در خودرو تعبیه شده است، چه نتیجه ای می گیرند، انجام نشده است، اما به جرات می توان گفت که هرچند منصفانه باشد، بسیاری آن را غیرقابل قبول می دانند.

در نهایت، مشکلاتی که زمانی به وجود می‌آیند که طراح یک ماشین، آن را به سمت هدفی هدایت می‌کند، بدون اینکه فکر کند که آیا ارزش‌های آن کاملاً با ارزش‌های بشری همسو هستند، یا زمانی که ماشین مطابق با استانداردهای « (فوق مشارکت )SuperCooperator» طراحی شده است و به جای اینکه به دیگران آسیب برساند، به کاربر آسیب می‌رساند. نیاز به مقررات خوب و یک سیستم قضایی آماده برای مقابله با چالش ها دارد. با این حال، این ما را به مجموعه جدیدی از چالش‌ها سوق می‌دهد، یعنی چالش‌هایی که صرفاً فقهی هستند.

https://www.nature.com/articles/s41599-019-0278-x

مترجم مهدی امیدوار

انتهای پیام/*

نظرات
0 0 رای ها
Article Rating
اشتراک در
اطلاع از
guest
0 Comments
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
0
افکار شما را دوست داریم، لطفا نظر دهید.x