به گزارش خبر۲۴، گوگل اخیراً سیاستهای اخلاقی هوش مصنوعی خود را بهروزرسانی کرده و برخی از تعهدات پیشین خود را که مانع از استفاده از این فناوری در زمینههای تسلیحاتی و نظارتی فراتر از هنجارهای بینالمللی بود، حذف کرده است. این تغییر، نشانهای از تغییر رویکرد شرکت نسبت به هوش مصنوعی و استفادههای بالقوه آن در امنیت ملی و رقابت جهانی در این حوزه است.
تغییر در اصول اخلاقی هوش مصنوعی گوگل
بر اساس گزارش CNN، نسخه پیشین اصول هوش مصنوعی گوگل که در Wayback Machine، آرشیو اینترنت، قابل مشاهده بود، شامل دستهبندیهایی از کاربردهایی بود که شرکت متعهد شده بود آنها را دنبال نکند. از جمله این موارد، توسعه فناوریهای تسلیحاتی یا فناوریهایی بود که به آسیب رساندن به انسان منجر شوند. همچنین، گوگل اعلام کرده بود که در توسعه فناوریهای نظارتی فراتر از هنجارهای بینالمللی مشارکت نخواهد داشت.
با این حال، در نسخه جدید این اصول، این تعهدات از بین رفته است. این تغییرات در حالی صورت گرفته که رقابت در حوزه هوش مصنوعی از زمان راهاندازی ChatGPT توسط OpenAI در سال ۲۰۲۲ شتاب چشمگیری گرفته و شرکتهای بزرگ فناوری در حال تلاش برای حفظ موقعیت خود در این رقابت هستند.
استدلال گوگل برای این تغییرات
در پستی که جیمز منیکا، معاون ارشد تحقیق و توسعه در گوگل، و دمیس حسابیس، مدیر ارشد گوگل دیپمایند، در وبلاگ رسمی این شرکت منتشر کردند، آمده است که سیاستهای جدید منعکسکننده درک عمیقتر این شرکت از پتانسیلها و خطرات هوش مصنوعی است.
در این بیانیه تأکید شده است که در سطح بینالمللی، یک رقابت گسترده برای رهبری در حوزه هوش مصنوعی در حال انجام است و گوگل معتقد است که دموکراسیها باید توسعه هوش مصنوعی را رهبری کنند. این رهبری باید بر پایه ارزشهایی مانند آزادی، برابری و احترام به حقوق بشر انجام شود.
همچنین، این پست وبلاگی بر همکاری بین شرکتها، دولتها و سازمانهایی که این ارزشها را به اشتراک میگذارند تأکید دارد تا هوش مصنوعی در جهت حفاظت از مردم، رشد جهانی و حمایت از امنیت ملی توسعه یابد.
چرخش ۱۸۰ درجهای از سیاستهای ۲۰۱۸
سیاستهای جدید گوگل در تضاد آشکار با موضعگیریهای این شرکت در سال ۲۰۱۸ است. در آن سال، گوگل از رقابت برای یک قرارداد ۱۰ میلیارد دلاری رایانش ابری پنتاگون خارج شد و اعلام کرد که این قرارداد با اصول اخلاقی هوش مصنوعی گوگل مطابقت ندارد.
علاوه بر این، در همان سال بیش از ۴۰۰۰ کارمند گوگل طوماری را امضا کرده و از شرکت درخواست کردند که یک سیاست شفاف و قطعی اتخاذ کند که بر اساس آن، گوگل و پیمانکارانش هرگز در توسعه فناوریهای جنگی مشارکت نکنند. در نتیجه این اعتراضات، حدود ۱۲ کارمند گوگل در اعتراض به احتمال مشارکت این شرکت در پروژههای نظامی از شغل خود استعفا دادند.
پیامدهای تغییر سیاستهای گوگل
حذف تعهدات پیشین از سیاستهای گوگل سؤالاتی جدی را درباره جهتگیری آینده این شرکت در حوزه هوش مصنوعی مطرح میکند. اگرچه گوگل همچنان از ارزشهای دموکراتیک و حقوق بشر سخن میگوید، اما حذف محدودیتهای استفاده از هوش مصنوعی در تسلیحات و نظارت گسترده، احتمال ورود این شرکت به پروژههای نظامی و امنیتی را تقویت میکند.
این تغییر میتواند منجر به واکنشهای منفی از سوی فعالان حقوق دیجیتال و کارمندان گوگل شود، درست مانند آنچه در سال ۲۰۱۸ اتفاق افتاد. علاوه بر این، نهادهای نظارتی و قانونگذاران که به دنبال تدوین چارچوبهای شفافتر برای اخلاق و شفافیت هوش مصنوعی هستند، ممکن است فشار بیشتری به این شرکت وارد کنند.
از سوی دیگر، با توجه به رقابت فزاینده در حوزه هوش مصنوعی بین ایالات متحده، چین و سایر قدرتهای جهانی، گوگل احتمالاً قصد دارد جایگاه خود را در سیاستهای ملی و بینالمللی حفظ کند. این تغییر رویکرد میتواند نشانهای از همسویی این شرکت با سیاستهای امنیت ملی ایالات متحده باشد که به طور فزایندهای بر توسعه هوش مصنوعی به عنوان ابزاری راهبردی در رقابت ژئوپلیتیک تأکید دارد.
جمعبندی
سیاستهای جدید گوگل در مورد هوش مصنوعی نشاندهنده تحولی مهم در دیدگاه این شرکت نسبت به آینده این فناوری است. حذف ممنوعیت توسعه فناوریهای تسلیحاتی و نظارتی، نگرانیهایی در مورد پیامدهای اخلاقی و امنیتی آن ایجاد کرده است.
در حالی که گوگل استدلال میکند که این تغییرات در راستای ارزشهای دموکراتیک و امنیت ملی صورت گرفته، اما مخالفان بر این باورند که این سیاست جدید در تضاد با اصول اولیه گوگل در حوزه هوش مصنوعی است و میتواند به استفادههای نگرانکننده از این فناوری منجر شود.
با توجه به افزایش نظارتهای دولتی و فشارهای قانونی در سطح جهانی برای تنظیم مقررات هوش مصنوعی، باید دید که آیا این تغییرات سیاستی در نهایت به نفع یا ضرر آینده فناوری و حقوق کاربران خواهد بود.
منبع:
https://edition.cnn.com/2025/02/04/business/google-ai-weapons-surveillance/index.html