اولین سیاستمدار هوش مصنوعی بریتانیا ادعا می کند که اعتماد را به سیاست باز می گرداند – بنابراین من آن را در معرض آزمایش قرار دادم


احزاب سیاسی اغلب دوست دارند بگویند که نامزدهایشان با بقیه متفاوت است، اما باهوش‌تر بریتانیا واقعاً به این دلیل است که انسان نیست – این آفرینش هوش مصنوعی (AI) است. حزب سیاسی جدید معتقد است که نامزد آن، هوش مصنوعی استیو، می‌تواند اعتماد را به سیاست در زمانی که اعتماد است بازگرداند. به پایین ترین حد جدید رسید.

هوش مصنوعی استیو آواتار هوش مصنوعی استیو انداکات است که Neural Voice را اداره می‌کند، شرکت فناوری که در پشت کمپین هوشمندتر انگلستان قرار دارد. پایان انسان فرار کرد و گم شد به عنوان کاندیدای محافظه کار در انتخابات محلی 2022 در روچدیل، محل زندگی خود.

اگر هوش مصنوعی استیو توسط رای دهندگان غرفه برایتون انتخاب شود، انداکات در پارلمان خواهد نشست. با این حال، این بعید است، زیرا صندلی بزرگ است اکثریت سبز که به نظر می رسد تنها حزب کارگر قادر به واژگونی است.

این کمپین ادعا می کند که هوش مصنوعی استیو با وادار کردن رأی دهندگان به پیشنهاد و رأی دادن در مورد آنچه استیو به عنوان یک نماینده محلی باید انجام دهد، دموکراسی را مجدداً اختراع می کند، و انداکات به طور فیزیکی در پارلمان ظاهر می شود تا آنچه را که تصمیم می گیرند انجام دهد.

تایید یا عدم تایید جمعی رای دهندگان از طریق هوش مصنوعی استیو تعیین می کند که انداکات چه کاری انجام خواهد داد (اگر بیش از 50٪ به یک اقدام خاص رای دهند، او آن را انجام خواهد داد). این رویکرد مبتنی بر اصل حکومت اکثریت است که جنبه اساسی حکومت دموکراتیک است. بر اساس این اصل، تصمیماتی که بیشترین حمایت را دارند، تصمیماتی هستند که باید اتخاذ شوند.

با توجه به تاثیر بالقوه قابل توجهی که رای دهندگان از طریق هوش مصنوعی استیو بر آرای پارلمان انداکات دارند، SmarterUK استدلال می کند که هوش مصنوعی می تواند اعتماد بین رای دهندگان و نمایندگان آنها را بهبود بخشد.

آیا هوش مصنوعی واقعاً می تواند اعتماد را به سیاست بازگرداند؟ برای پاسخ به آن، به پنج نفر نگاه کردم عناصر اعتماد در دولت ها که توسط OECD تعریف شده است: صداقت، پاسخگویی، اعتماد، باز بودن و انصاف برای دیدن اینکه استیو چگونه هوش مصنوعی را ارزیابی می کند. در حالی که این ایده در تئوری به رای دهندگان کنترل مستقیم بیشتری می دهد، اما در مورد حکومت واقعی سوالات قانونی، اخلاقی و عملی دیگری را مطرح می کند.

یک نیمکت سبز خالی در مجلس عوام.
در صورت انتخاب AI-Steve، استیو انداکات در پارلمان خواهد نشست.
Alamy Stock Photo/DIGITEYES

تمامیت. نهادهای حقوقی و سیاسی ما بر اساس مسئولیت انسانی بنا شده اند. هوش مصنوعی، هر چند پیچیده، انسانی نیست و دارای تجربیاتی نیست که درک ما از این ارزش‌ها را شکل دهد. این خطر وجود دارد که راه‌حل‌های هوش مصنوعی استیو مبتنی بر داده‌ها و الگوریتم‌ها نتوانند تفاوت‌های ظریف ارزش‌ها و اخلاق انسانی را به تصویر بکشند. سخت است که دید هوش مصنوعی چگونه می‌تواند به‌راستی اراده مردم را نمایندگی کند و آیا مشارکت آن در سیاست با اصول دموکراتیک بریتانیا سازگار است یا خیر.

پاسخگویی. با در دسترس بودن 24/7، هوش مصنوعی استیو مطمئناً برای رأی دهندگان قابل دسترسی است. اما این می‌تواند انتظارات غیرواقع‌بینانه‌ای را از نمایندگان دیگر ایجاد کند که توسط نسخه هوش مصنوعی خودشان پشتیبانی نمی‌شوند. همچنین به این معنی است که انداکات، که در روچدیل، منچستر بزرگ زندگی می‌کند (اگرچه طبق وب‌سایت AI استیو خانه‌ای در برایتون دارد)، می‌تواند از حضور شخص در حوزه انتخابیه خود اجتناب کند.

قابلیت اطمینان. مشارکت رای دهندگان در هدایت اقدامات نمایندگان حوزه انتخابیه خود مستلزم آن است که آنها درک خوبی از مسائل مورد نظر داشته باشند تا بتوانند آگاهانه تصمیم بگیرند. رویکرد هوش مصنوعی استیو حفظ آستانه حمایت 50 درصدی برای اقدامات خود است، به این معنی که اگر بخش قابل توجهی از مردم مخالف آن باشند، می تواند تصمیم بگیرد یا به روش خاصی رأی دهد. این مرز مشابه آنچه در رفراندوم برگزیت دیدیم است، بنابراین پتانسیل دو قطبی شدن و درگیری آشکار است.

باز بودن. نمایندگان مجلس انسانی می توانند دلیل تصمیم گیری را توضیح دهند که ممکن است مورد حمایت همه رای دهندگان نباشد. با هوش مصنوعی استیو ممکن است بیشتر سناریوی جعبه سیاه داشته باشیم. منطق او در مورد نحوه پردازش پیشنهادات رای دهندگانش ممکن است برای رای دهنده معمولی واضح یا قابل درک نباشد. قانون دامنه محدودی برای رسیدگی به این عدم شفافیت دارد تا اطمینان حاصل شود که تصمیم‌گیری هوش مصنوعی تا حد امکان شفاف و باز است.

عدالت. مقداری 63 درصد مردم وی گفت که پیروی مقامات دولتی از قوانین مشابه با دیگران بر میزان اعتماد آنها به دولت ملی تأثیر می گذارد.

در صورت اشتباه یا نقض قوانین توسط هوش مصنوعی استیو، چه کسی مسئول است؟ آیا خالقان هوش مصنوعی، خود هوش مصنوعی، انداکات، رای دهندگانی که از آن حمایت کردند یا کسانی که در مواضع آن سهیم بودند؟ اگر چارچوب قانونی برای روشن کردن مسئولیت هوش مصنوعی تکامل یابد، این موضوع چگونه بر تصمیمات خط‌مشی هوش مصنوعی استیو تأثیر می‌گذارد؟

حکم

اختراع هوش مصنوعی استیو بیشتر از آن که پاسخ دهد در مورد اعتماد به سیاست سؤالات را ایجاد می کند. هوش مصنوعی ممکن است پتانسیل مشارکت عمومی بیشتر در فرآیند سیاسی را ارائه دهد، اما جامعه حقوقی باید فعال باشد و قوانینی را شکل دهد تا اطمینان حاصل شود که از منافع شهروندان و یکپارچگی نظام سیاسی محافظت می شود.

دیدگاهتان را بنویسید