سعید بهبودی نژاد
دکتری حقوق بین الملل و پژوهشگر حوزه هوش مصنوعی
مرکز بین المللی مطالعات صلح- IPSC
این تحلیل راههایی را بررسی کرده است که چگونه پیشرفتهای هوش مصنوعی بر ماهیت حقوق بینالملل تأثیر میگذارد، و همچنین برعکس آن ، چگونه حقوق بینالملل ممکن است تصمیمات دولتها را برای استقرار هوش مصنوعی هدایت کند. امروزه دولت ها و بازیگران بخش خصوصی از ابزارهای هوش مصنوعی برای بهبود تشخیص های پزشکی ایجاد استقلال بیشتر در فعالیت های روزانه مانند رانندگی؛ افزایش دقت نرم افزار تشخیص چهره؛ و بهبود تصمیم گیری قضایی استفاده می کنند. با این حال اگرچه هوش مصنوعی به طور فزاینده ای در عرصه های تجاری، نظامی و علمی نفوذ کرده است ، اما دولت ها در ایجاد موافقت نامه های بین المللی جدید یا اصلاح قراردادهای موجود برای رسیدن به این پیشرفت های فناوری کند بوده اند. با این وجود، هوش مصنوعی مطمئناً تغییراتی را در زمینههای حقوق بشر، استفاده از زور، اجرای قانون فراملی، سلامت جهانی، رژیمهای مالکیت معنوی، و قانون کار بینالمللی و غیره ایجاد خواهد کرد. برای مثال، این واقعیت را در نظر بگیرید که دولتهای مختلف شروع به استفاده از نرمافزار تشخیص چهره مبتنی بر هوش مصنوعی کردهاند، با این کار نه تنها برای شناسایی مظنونان جنایتکار، بلکه برای ثبت الگوهای زندگی و نظارت بر افراد نیز استفاده میکنند . این استفاده دولتها مستلزم اصلاح قوانین بین المللی حقوق بشر مربوط به حریم خصوصی، آزادی انجمن و آزادی بیان است.
ابزارهای هوش مصنوعی همچنین این پتانسیل را دارند که همکاری و انطباق با اجرای قانون فراملی را پیچیده کنند، مانند مواردی که یک دولت درخواست استرداد می کند که کاملاً از تعیین علت احتمالی ناشی از الگوریتم های غیرشفاف ناشی می شود. علاوه بر این، دولت ها در حال توسعه خودروها و کشتی های خودران هستند که در نهایت ممکن است به صورت فراملی عمل کنند. با این حال، جامعه بین المللی به طور کلی، و دولت ها به طور خاص، به درک مشترکی در مورد میزان کافی بودن قوانین بین المللی موجود برای تنظیم این تحولات نرسیده اند. فشرده ترین مذاکرات بین المللی مرتبط با هوش مصنوعی بر روی ممنوعیت سیستم های تسلیحاتی خودکار مرگبار متمرکز شده است، اما این بحث ها تا کنون پیچیده، بحث برانگیز و بی نتیجه بوده است.
پیشرفت هوش مصنوعی فرصتی را برای کارشناسان حقوقی بینالمللی فراهم میکند تا در مورد اینکه هوش مصنوعی چگونه بر قواعد حقوق بینالملل تأثیر میگذارد ویا تحت تأثیر قرار میگیرد، فکر کنند. اما شایان ذکر است که هوش مصنوعی ممکن است از دو جهت دیگر نیز با قوانین بین المللی تلاقی داشته باشد. اول، دولت ها ممکن است شروع به استقرار ابزارهای یادگیری ماشینی کنند تا به موقعیت رویه ای خود برای مذاکرات معاهده یا قضاوت بین المللی کمک کنند. برای مثال، کشورها ممکن است از یادگیری ماشین یا تجزیه و تحلیل متن محاسباتی برای شناسایی الگوهای تعداد زیادی از اظهارات شرکای مذاکره کننده خود استفاده کنند. مجمع عمومی سازمان ملل متحد و مواضع مذاکره آنها را بر این اساس شکل دهند. علاوه بر این، دولتها ممکن است از ابزارهای هوش مصنوعی برای بهبود روش حل اختلاف، با پردازش سریعتر و کاملتر اطلاعات درباره داوران یا با آشکارسازی الگوهای نادیده در تصمیمهای داوری یا قضایی استفاده کنند.
دوم، ابزارهای هوش مصنوعی ممکن است به دولتها در اجرای قوانین بینالمللی کمک کند. برای مثال، یک دولت میتواند حسگرهایی را برای تشخیص نقض معاهدات تسلیحاتی ایجاد و مستقر کند و از هوش مصنوعی برای نظارت بر حسگرها استفاده کند. وکلای جنایی بینالمللی ممکن است از ابزارهای هوش مصنوعی برای کمک به شناسایی شواهد جنایات جنگی استفاده کنند یا شواهدی که به اثبات بیگناهی موکلان آنها کمک میکند نیز بهره گیری کنند.
مالکوم لانگفورد تأثیر بالقوه تصمیم گیری خودکار و یادگیری ماشینی توسط دولت ها بر حقوق بشر را بررسی می کند. او با استفاده از «حق امنیت اجتماعی» و «حق محاکمه عادلانه» به عنوان مثال، استدلالهای موجود را در مورد اینکه چگونه خودکارسازی این فرآیندها محتوای این حقوق را تضعیف میکند، شناسایی میکند. لنگفورد منتقدان را به چالش میکشد تا از پیش فرضهای ساده درباره «موج دیجیتال» جدید عبور کنند. او از منتقدان میخواهد که فنآوریها را به گونهای ببینند که از رمانتیک کردن سیستمها و فرآیندهای پیچیده (محور انسان) که در حال حاضر در دولت رفاه وجود دارد، اجتناب کنند و قضاوتهای خود را بر اساس شواهد تجربی قرار دهند. او با این استدلال که یک راه کلیدی برای حفاظت از حقوق بشر وجود دارد استدلال میکند که در حال حاضر شواهدی وجود دارد که فناوری های جدید خود می توانند به تضمین رعایت حقوق سایر فناوری های جدید کمک کنند.
استیون هیل، که تا همین اواخر به عنوان مشاور حقوقی ناتو خدمت می کرد، دیدگاهی متمرکز بر دولت در مورد هوش مصنوعی در اختیار ما قرار می دهد. هیل انواع چالشهایی را در نظر میگیرد که هوش مصنوعی برای یک اتحاد نظامی قدرتمند ایجاد میکند که دارای ارزشهای مشترک است اما تعهدات حقوقی بینالمللی و داخلی متفاوتی دارد. به عنوان مثال، او شناسایی روند تهدیدات سایبری را ذکر میکند . او همچنین استدلال میکند که برای ناتو مهم است که همه متحدان خود را با کاربردهای مختلف هوش مصنوعی همراه کند تا از واکنشهای منفی علیه این فناوریها جلوگیری شود. این شامل دستیابی به توافق اعضا در مورد مالکیت، اشتراک گذاری و استفاده از داده ها ، برای هوش مصنوعی است . هیل پیشنهاد میکند که یک راه خوب برای ایجاد ثبات و اعتماد در این زمینه، تقویت گفتوگوهای حقوقی و اخلاقی مداوم، با تکیه بر سنت ناتو در جستجوی «عملکرد متقابل قانونی» در میان اعضایش است.
برایانت واکر اسمیت از دانشکده حقوق دانشگاه کارولینای جنوبی چالش چندجانبه متفاوتی را که توسط هوش مصنوعی مطرح شده است را در نظر میگیرد . اینکه دولتها چگونه باید معاهدات موجود را با فناوریهای جدید تطبیق دهند؟ تحلیل اسمیت به بررسی ابهامات احتمالی موجود در دستورات معاهدات مبنی بر اینکه هر وسیله نقلیه باید یک راننده داشته باشد، عمیق می شود. او بررسی میکند که چرا دولتهای مختلف ممکن است رویکردهای متفاوتی برای تفسیر این عبارت داشته باشند، و چرا دولتها ممکن است رویکردهای کمابیش رسمی برای شفافسازی زبان معاهده را ترجیح دهند. با عقب نشینی از مثال رانندگی خودکار، مقاله اسمیت انواع سوالاتی را که دولت ها در طیف وسیعی از معاهدات موجود و فناوری های جدید با آن مواجه خواهند شد، نشان می دهد. در نهایت، او نقش مهم شرکتها را در یک اکوسیستم حقوق بینالملل که مجبور به مبارزه با تغییرات ایجاد شده توسط هوش مصنوعی است، شناسایی میکند.
داراق موری از دانشگاه اسکس، تعامل پیچیده بین هوش مصنوعی و حقوق بشر را در نظر می گیرد، موری بر استفاده از قوانین حقوق بشر به عنوان راهنمای پیش از پیش برای تصمیم گیری دولتی تمرکز می کند. او رویکرد اروپایی به حقوق بشر را به عنوان یک چارچوب سازماندهی بررسی کرد که از طریق آن میتوان انتخابهای خود را در مورد هوش مصنوعی قبل از استفاده از آن تحلیل و شکل داد. موری با استفاده از تشخیص چهره زنده به عنوان مثال، نشان میدهد که چرا دولتها باید ارزیابی کنند که آیا استقرار این نوع ابزار مبتنی بر هوش مصنوعی «در یک جامعه دموکراتیک ضروری است» یا خیر، الزامی که از احکام دادگاه حقوق بشر اروپا گرفته شده است. موری به دقت توضیح میدهد که این آزمایش از دولتها میخواهد که هدف زیربنای استقرار را شناسایی کنند، و نشان دهند که چرا هوش مصنوعی برای دستیابی به آن هدف ضروری است، و نیز مشخص کنند که دولت ها چگونه فناوری را به کار خواهند گرفت. موری استدلال میکند که اگر دولتها امروز هنگام تصمیمگیری درباره استقرار هوش مصنوعی به اصول حقوق بشر توجه کنند، برای پاسخگویی به چالشهای قانونی در آینده مناسبتر و بهتر خواهد بود. در مجموع او نخبگان را دعوت میکند تا به سختی – و با دقت – در مورد سایر حوزههای اساسی حقوق بینالملل که با استقرار فناوریهای هوش مصنوعی توسط دولتها تلاقی میکنند، فکر کنند زیرا وکلای بینالمللی برای کمک به اطمینان از استفاده مسئولانه از هوش مصنوعی توسط دولتها و افراد در سالهای آینده با چالشی دشوار اما هیجانانگیز روبرو هستند.
چشم انداز
حقوق بین الملل نقش محوری در حکمرانی هوش مصنوعی خواهد داشت . حقوق بین الملل واژگان مشترک و همچنین وضوح، پیش بینی پذیری و اطمینان بیشتری را برای رسیدگی به این چالش جهانی و پیچیده برای کشورها فراهم می کند. وظیفه تفسیر قوانین بینالمللی در زمینه هوش مصنوعی آسان نیست و نیازمند تلاش جمعی است که ذینفعان و حوزههای تخصصی مختلف را گرد هم آورد. در این مرحله سوالات بیشتر از پاسخ وجود دارد. با این حال، با توجه به سرعت سریع توسعه هوش مصنوعی و خطر پیشی گرفتن از هر مقرراتی، واضح است که حکمرانی هوش مصنوعی باید انعطافپذیر و پویا باشد و تمام مراحل توسعه هوش مصنوعی را پوشش دهد. در حالی که این انعطاف پذیری در کلیت حقوق بین الملل ذاتی است، دولت ها و سایر ذینفعان هنوز باید به طور جمعی در مورد چگونگی اعمال آن در عمل، از جمله از طریق فرآیندها، انجمن ها یا نهادهای موجود یا جدید، فکر کنند. این جایی است که گفتگو در مورد دولت جهانی هوش مصنوعی باید انجام شود.