مرکز بین المللی مطالعات صلح - IPSC

 تأثیرهوش مصنوعی بر حقوق بین الملل

اشتراک

 

 

سعید بهبودی نژاد 

دکتری حقوق بین الملل و پژوهشگر حوزه هوش مصنوعی 

مرکز بین المللی مطالعات صلح- IPSC

این تحلیل  راه‌هایی را بررسی ‌کرده است  که چگونه  پیشرفت‌های هوش مصنوعی  بر ماهیت حقوق بین‌الملل تأثیر می‌گذارد، و همچنین برعکس آن ، چگونه حقوق بین‌الملل ممکن است تصمیمات دولت‌ها را برای استقرار هوش مصنوعی هدایت کند. امروزه دولت ها و بازیگران بخش خصوصی از ابزارهای هوش مصنوعی برای بهبود تشخیص های پزشکی ایجاد استقلال بیشتر در فعالیت های روزانه مانند رانندگی؛ افزایش دقت نرم افزار تشخیص چهره؛ و بهبود تصمیم گیری قضایی استفاده می کنند. با این حال  اگرچه هوش مصنوعی به طور فزاینده ای در عرصه های تجاری، نظامی و علمی نفوذ  کرده است ،  اما دولت ها در ایجاد موافقت نامه های بین المللی جدید یا اصلاح قراردادهای موجود برای رسیدن به این پیشرفت های فناوری کند بوده اند. با این وجود، هوش مصنوعی مطمئناً تغییراتی را در زمینه‌های حقوق بشر، استفاده از زور، اجرای قانون فراملی، سلامت جهانی، رژیم‌های مالکیت معنوی، و قانون کار بین‌المللی و غیره ایجاد خواهد کرد. برای مثال، این واقعیت را در نظر بگیرید که دولت‌های مختلف شروع به استفاده از نرم‌افزار تشخیص چهره مبتنی بر هوش مصنوعی کرده‌اند، با این کار نه تنها برای شناسایی مظنونان جنایتکار، بلکه برای ثبت الگوهای زندگی و نظارت بر افراد  نیز استفاده میکنند . این استفاده  دولتها مستلزم  اصلاح قوانین بین المللی حقوق بشر مربوط به حریم خصوصی، آزادی انجمن و آزادی بیان است.

 ابزارهای هوش مصنوعی همچنین این پتانسیل را دارند که همکاری و انطباق با اجرای قانون فراملی را پیچیده کنند، مانند مواردی که یک دولت درخواست استرداد می کند که کاملاً از تعیین علت احتمالی ناشی از الگوریتم های غیرشفاف ناشی می شود. علاوه بر این،  دولت  ها در حال توسعه خودروها و کشتی های خودران هستند که در نهایت ممکن است به صورت فراملی عمل کنند. با این حال، جامعه بین المللی به طور کلی، و دولت ها به طور خاص، به درک مشترکی در مورد میزان کافی بودن قوانین بین المللی موجود برای تنظیم این تحولات نرسیده اند. فشرده ترین مذاکرات بین المللی مرتبط با هوش مصنوعی بر روی ممنوعیت سیستم های تسلیحاتی خودکار مرگبار متمرکز شده است، اما این  بحث ها تا کنون پیچیده، بحث برانگیز و بی نتیجه بوده است.

پیشرفت هوش مصنوعی  فرصتی را برای کارشناسان حقوقی بین‌المللی فراهم می‌کند تا در مورد اینکه هوش مصنوعی چگونه بر قواعد حقوق بین‌الملل تأثیر می‌گذارد ویا  تحت تأثیر قرار می‌گیرد، فکر کنند. اما شایان ذکر است که هوش مصنوعی ممکن است از دو جهت دیگر نیز با قوانین بین المللی تلاقی داشته باشد. اول، دولت ها ممکن است شروع به استقرار ابزارهای یادگیری ماشینی کنند تا به موقعیت رویه ای خود برای مذاکرات معاهده یا قضاوت بین المللی کمک کنند. برای مثال، کشورها ممکن است از یادگیری ماشین یا تجزیه و تحلیل متن محاسباتی برای شناسایی الگوهای تعداد زیادی از اظهارات شرکای مذاکره کننده خود استفاده کنند. مجمع عمومی سازمان ملل متحد و مواضع مذاکره آنها را بر این اساس شکل دهند. علاوه بر این، دولت‌ها ممکن است از ابزارهای هوش مصنوعی برای بهبود روش حل اختلاف، با پردازش سریع‌تر و کامل‌تر اطلاعات درباره داوران یا با آشکارسازی الگوهای نادیده در تصمیم‌های داوری یا قضایی استفاده کنند.

دوم، ابزارهای هوش مصنوعی ممکن است به دولت‌ها در اجرای قوانین بین‌المللی کمک کند. برای مثال، یک دولت می‌تواند حسگرهایی را برای تشخیص نقض معاهدات تسلیحاتی ایجاد و مستقر کند و از هوش مصنوعی برای نظارت بر حسگرها استفاده کند.  وکلای جنایی بین‌المللی ممکن است از ابزارهای هوش مصنوعی برای کمک به شناسایی شواهد جنایات جنگی استفاده کنند  یا شواهدی که به اثبات بی‌گناهی موکلان آنها کمک می‌کند نیز بهره گیری کنند. 

 

مالکوم لانگفورد تأثیر بالقوه تصمیم گیری خودکار و یادگیری ماشینی توسط دولت ها بر حقوق بشر را بررسی می کند. او با استفاده از «حق امنیت اجتماعی» و «حق محاکمه عادلانه» به عنوان مثال، استدلال‌های موجود را در مورد اینکه چگونه خودکارسازی این فرآیندها محتوای این حقوق را تضعیف می‌کند، شناسایی می‌کند.  لنگفورد منتقدان را به چالش می‌کشد تا از پیش فرض‌های ساده درباره «موج دیجیتال» جدید عبور کنند. او از منتقدان می‌خواهد که فن‌آوری‌ها را به گونه‌ای ببینند که از رمانتیک کردن سیستم‌ها و فرآیندهای پیچیده (محور انسان) که در حال حاضر در دولت رفاه وجود دارد، اجتناب کنند و قضاوت‌های خود را بر اساس شواهد تجربی قرار دهند. او با این استدلال که یک راه کلیدی برای حفاظت از حقوق بشر وجود دارد  استدلال میکند که در حال حاضر شواهدی وجود دارد که فناوری های جدید خود می توانند به تضمین رعایت حقوق سایر فناوری های جدید کمک کنند.

استیون هیل، که تا همین اواخر به عنوان مشاور حقوقی ناتو خدمت می کرد، دیدگاهی متمرکز بر دولت در مورد هوش مصنوعی در اختیار ما قرار می دهد.  هیل انواع چالش‌هایی را در نظر می‌گیرد که هوش مصنوعی برای یک اتحاد نظامی قدرتمند ایجاد می‌کند که دارای ارزش‌های مشترک است اما تعهدات حقوقی بین‌المللی و داخلی متفاوتی دارد. به عنوان مثال،  او شناسایی روند تهدیدات سایبری را ذکر میکند .  او همچنین استدلال می‌کند که برای ناتو مهم است که همه متحدان خود را با کاربردهای مختلف هوش مصنوعی همراه کند تا از واکنش‌های منفی علیه این فناوری‌ها جلوگیری شود. این شامل دستیابی به توافق اعضا در مورد مالکیت، اشتراک گذاری و استفاده از داده ها ، برای هوش مصنوعی است . هیل پیشنهاد می‌کند که یک راه خوب برای ایجاد ثبات و اعتماد در این زمینه، تقویت گفت‌وگوهای حقوقی و اخلاقی مداوم، با تکیه بر سنت ناتو در جستجوی «عملکرد متقابل قانونی» در میان اعضایش است.

برایانت واکر اسمیت از دانشکده حقوق دانشگاه کارولینای جنوبی چالش چندجانبه متفاوتی را که توسط هوش مصنوعی مطرح شده است را  در نظر می‌گیرد . اینکه  دولت‌ها چگونه باید معاهدات موجود را با فناوری‌های جدید تطبیق دهند؟  تحلیل اسمیت به بررسی ابهامات احتمالی موجود در دستورات معاهدات مبنی بر اینکه هر وسیله نقلیه باید یک راننده داشته باشد، عمیق می شود. او بررسی می‌کند که چرا دولت‌های مختلف ممکن است رویکردهای متفاوتی برای تفسیر این عبارت داشته باشند، و چرا دولت‌ها ممکن است رویکردهای کمابیش رسمی برای شفاف‌سازی زبان معاهده را ترجیح دهند. با عقب نشینی از مثال رانندگی خودکار، مقاله اسمیت انواع سوالاتی را که دولت ها در طیف وسیعی از معاهدات موجود و فناوری های جدید با آن مواجه خواهند شد، نشان می دهد. در نهایت، او نقش مهم شرکت‌ها را در یک اکوسیستم حقوق بین‌الملل که مجبور به مبارزه با تغییرات ایجاد شده توسط هوش مصنوعی است، شناسایی می‌کند.

داراق موری از دانشگاه اسکس، تعامل پیچیده بین هوش مصنوعی و حقوق بشر را در نظر می گیرد،  موری بر استفاده از قوانین حقوق بشر به عنوان راهنمای پیش از پیش برای تصمیم گیری  دولتی  تمرکز می کند. او  رویکرد اروپایی به حقوق بشر را به عنوان یک چارچوب سازماندهی بررسی  کرد که از طریق آن می‌توان انتخاب‌های خود را در مورد هوش مصنوعی قبل از استفاده از آن تحلیل و شکل داد. موری با استفاده از تشخیص چهره زنده به عنوان مثال، نشان می‌دهد که چرا دولت‌ها باید ارزیابی کنند که آیا استقرار این نوع ابزار مبتنی بر هوش مصنوعی «در یک جامعه دموکراتیک ضروری است» یا خیر، الزامی که از احکام دادگاه حقوق بشر اروپا گرفته شده است. موری به دقت توضیح می‌دهد که این آزمایش از دولت‌ها می‌خواهد که هدف زیربنای استقرار را شناسایی کنند، و نشان دهند که چرا هوش مصنوعی برای دستیابی به آن هدف ضروری است، و نیز مشخص کنند که دولت ها چگونه فناوری را به کار خواهند گرفت.  موری  استدلال می‌کند که اگر دولت‌ها امروز هنگام تصمیم‌گیری درباره استقرار هوش مصنوعی به اصول حقوق بشر توجه کنند، برای پاسخگویی به چالش‌های قانونی در آینده مناسب‌تر و بهتر خواهد بود. در مجموع او نخبگان  را دعوت می‌کند تا به سختی – و با دقت – در مورد سایر حوزه‌های اساسی حقوق بین‌الملل که با استقرار فناوری‌های هوش مصنوعی توسط دولت‌ها تلاقی می‌کنند، فکر کنند زیرا  وکلای بین‌المللی برای کمک به اطمینان از استفاده مسئولانه از هوش مصنوعی توسط دولت‌ها و افراد در سال‌های آینده با چالشی دشوار اما هیجان‌انگیز روبرو هستند.

 

چشم انداز 

حقوق بین الملل نقش محوری در حکمرانی هوش مصنوعی  خواهد داشت . حقوق بین الملل  واژگان مشترک و همچنین وضوح، پیش بینی پذیری و اطمینان بیشتری را برای رسیدگی به این چالش جهانی و پیچیده برای کشورها فراهم می کند. وظیفه تفسیر قوانین بین‌المللی در زمینه هوش مصنوعی آسان نیست و نیازمند تلاش جمعی است که ذینفعان و حوزه‌های تخصصی مختلف را گرد هم ‌آورد. در این مرحله سوالات بیشتر از پاسخ وجود دارد. با این حال، با توجه به سرعت سریع توسعه هوش مصنوعی و خطر پیشی گرفتن از هر مقرراتی، واضح است که حکمرانی هوش مصنوعی باید انعطاف‌پذیر و پویا باشد و تمام مراحل توسعه هوش مصنوعی را پوشش دهد. در حالی که این انعطاف پذیری در کلیت حقوق بین الملل ذاتی است، دولت ها و سایر ذینفعان هنوز باید به طور جمعی در مورد چگونگی اعمال آن در عمل، از جمله از طریق فرآیندها، انجمن ها یا نهادهای موجود یا جدید، فکر کنند. این جایی است که گفتگو در مورد دولت جهانی هوش مصنوعی باید انجام شود.

 

مطالب مرتبط