• صفحه اصلی
  • اختصاصی
  • اخبار
    • سیاست
    • اقتصاد
    • جامعه
    • ورزشی
    • بین‌الملل
      • جهان اسلام
        • جبهه مقاومت
        • بیداری اسلامی
      • جهان غرب
    • فرهنگ، هنر و رسانه
      • زیست پلاس
    • شبکه‌های اجتماعی
    • زنان و خانواده
    • جبهه انقلاب
      • افراد و فعالین
      • موسسات
      • رویدادها
      • محصولات
    • اخبار جعلی
      • راستی‌آزمایی
      • گزارش تحقیقی
    • فیلم
      • نصر تی‌وی
    • عکس
    • صدا
      • حسینیه نوا خبر۲۴
    • پژوهشکده رایانما خبر۲۴
  • تلویزیون
  • رادیو
Menu
  • صفحه اصلی
  • اختصاصی
  • اخبار
    • سیاست
    • اقتصاد
    • جامعه
    • ورزشی
    • بین‌الملل
      • جهان اسلام
        • جبهه مقاومت
        • بیداری اسلامی
      • جهان غرب
    • فرهنگ، هنر و رسانه
      • زیست پلاس
    • شبکه‌های اجتماعی
    • زنان و خانواده
    • جبهه انقلاب
      • افراد و فعالین
      • موسسات
      • رویدادها
      • محصولات
    • اخبار جعلی
      • راستی‌آزمایی
      • گزارش تحقیقی
    • فیلم
      • نصر تی‌وی
    • عکس
    • صدا
      • حسینیه نوا خبر۲۴
    • پژوهشکده رایانما خبر۲۴
  • تلویزیون
  • رادیو
صفحه اصلی اخبار پژوهشکده رایانما خبر۲۴

چرخش گوگل در سیاست‌های اخلاقی هوش مصنوعی

۱۷ بهمن ۱۴۰۳
در اختصاصی خبر ۲۴, پژوهشکده رایانما خبر۲۴
چرخش گوگل در سیاست‌های اخلاقی هوش مصنوعی

به گزارش خبر۲۴، گوگل اخیراً سیاست‌های اخلاقی هوش مصنوعی خود را به‌روزرسانی کرده و برخی از تعهدات پیشین خود را که مانع از استفاده از این فناوری در زمینه‌های تسلیحاتی و نظارتی فراتر از هنجارهای بین‌المللی بود، حذف کرده است. این تغییر، نشانه‌ای از تغییر رویکرد شرکت نسبت به هوش مصنوعی و استفاده‌های بالقوه آن در امنیت ملی و رقابت جهانی در این حوزه است.

تغییر در اصول اخلاقی هوش مصنوعی گوگل

بر اساس گزارش CNN، نسخه پیشین اصول هوش مصنوعی گوگل که در Wayback Machine، آرشیو اینترنت، قابل مشاهده بود، شامل دسته‌بندی‌هایی از کاربردهایی بود که شرکت متعهد شده بود آن‌ها را دنبال نکند. از جمله این موارد، توسعه فناوری‌های تسلیحاتی یا فناوری‌هایی بود که به آسیب رساندن به انسان منجر شوند. همچنین، گوگل اعلام کرده بود که در توسعه فناوری‌های نظارتی فراتر از هنجارهای بین‌المللی مشارکت نخواهد داشت.

با این حال، در نسخه جدید این اصول، این تعهدات از بین رفته است. این تغییرات در حالی صورت گرفته که رقابت در حوزه هوش مصنوعی از زمان راه‌اندازی ChatGPT توسط OpenAI در سال ۲۰۲۲ شتاب چشمگیری گرفته و شرکت‌های بزرگ فناوری در حال تلاش برای حفظ موقعیت خود در این رقابت هستند.

استدلال گوگل برای این تغییرات

در پستی که جیمز منیکا، معاون ارشد تحقیق و توسعه در گوگل، و دمیس حسابیس، مدیر ارشد گوگل دیپ‌مایند، در وبلاگ رسمی این شرکت منتشر کردند، آمده است که سیاست‌های جدید منعکس‌کننده درک عمیق‌تر این شرکت از پتانسیل‌ها و خطرات هوش مصنوعی است.

در این بیانیه تأکید شده است که در سطح بین‌المللی، یک رقابت گسترده برای رهبری در حوزه هوش مصنوعی در حال انجام است و گوگل معتقد است که دموکراسی‌ها باید توسعه هوش مصنوعی را رهبری کنند. این رهبری باید بر پایه ارزش‌هایی مانند آزادی، برابری و احترام به حقوق بشر انجام شود.

همچنین، این پست وبلاگی بر همکاری بین شرکت‌ها، دولت‌ها و سازمان‌هایی که این ارزش‌ها را به اشتراک می‌گذارند تأکید دارد تا هوش مصنوعی در جهت حفاظت از مردم، رشد جهانی و حمایت از امنیت ملی توسعه یابد.

چرخش ۱۸۰ درجه‌ای از سیاست‌های ۲۰۱۸

سیاست‌های جدید گوگل در تضاد آشکار با موضع‌گیری‌های این شرکت در سال ۲۰۱۸ است. در آن سال، گوگل از رقابت برای یک قرارداد ۱۰ میلیارد دلاری رایانش ابری پنتاگون خارج شد و اعلام کرد که این قرارداد با اصول اخلاقی هوش مصنوعی گوگل مطابقت ندارد.

علاوه بر این، در همان سال بیش از ۴۰۰۰ کارمند گوگل طوماری را امضا کرده و از شرکت درخواست کردند که یک سیاست شفاف و قطعی اتخاذ کند که بر اساس آن، گوگل و پیمانکارانش هرگز در توسعه فناوری‌های جنگی مشارکت نکنند. در نتیجه این اعتراضات، حدود ۱۲ کارمند گوگل در اعتراض به احتمال مشارکت این شرکت در پروژه‌های نظامی از شغل خود استعفا دادند.

پیامدهای تغییر سیاست‌های گوگل

حذف تعهدات پیشین از سیاست‌های گوگل سؤالاتی جدی را درباره جهت‌گیری آینده این شرکت در حوزه هوش مصنوعی مطرح می‌کند. اگرچه گوگل همچنان از ارزش‌های دموکراتیک و حقوق بشر سخن می‌گوید، اما حذف محدودیت‌های استفاده از هوش مصنوعی در تسلیحات و نظارت گسترده، احتمال ورود این شرکت به پروژه‌های نظامی و امنیتی را تقویت می‌کند.

این تغییر می‌تواند منجر به واکنش‌های منفی از سوی فعالان حقوق دیجیتال و کارمندان گوگل شود، درست مانند آنچه در سال ۲۰۱۸ اتفاق افتاد. علاوه بر این، نهادهای نظارتی و قانون‌گذاران که به دنبال تدوین چارچوب‌های شفاف‌تر برای اخلاق و شفافیت هوش مصنوعی هستند، ممکن است فشار بیشتری به این شرکت وارد کنند.

از سوی دیگر، با توجه به رقابت فزاینده در حوزه هوش مصنوعی بین ایالات متحده، چین و سایر قدرت‌های جهانی، گوگل احتمالاً قصد دارد جایگاه خود را در سیاست‌های ملی و بین‌المللی حفظ کند. این تغییر رویکرد می‌تواند نشانه‌ای از همسویی این شرکت با سیاست‌های امنیت ملی ایالات متحده باشد که به طور فزاینده‌ای بر توسعه هوش مصنوعی به عنوان ابزاری راهبردی در رقابت ژئوپلیتیک تأکید دارد.

جمع‌بندی

سیاست‌های جدید گوگل در مورد هوش مصنوعی نشان‌دهنده تحولی مهم در دیدگاه این شرکت نسبت به آینده این فناوری است. حذف ممنوعیت توسعه فناوری‌های تسلیحاتی و نظارتی، نگرانی‌هایی در مورد پیامدهای اخلاقی و امنیتی آن ایجاد کرده است.

در حالی که گوگل استدلال می‌کند که این تغییرات در راستای ارزش‌های دموکراتیک و امنیت ملی صورت گرفته، اما مخالفان بر این باورند که این سیاست جدید در تضاد با اصول اولیه گوگل در حوزه هوش مصنوعی است و می‌تواند به استفاده‌های نگران‌کننده از این فناوری منجر شود.

با توجه به افزایش نظارت‌های دولتی و فشارهای قانونی در سطح جهانی برای تنظیم مقررات هوش مصنوعی، باید دید که آیا این تغییرات سیاستی در نهایت به نفع یا ضرر آینده فناوری و حقوق کاربران خواهد بود.

منبع:

https://edition.cnn.com/2025/02/04/business/google-ai-weapons-surveillance/index.html

مطالب مرتبط

اقتدار منطقه‌ای ایران، زنگ خطر برای متحدان بی‌ثبات آمریکا
جبهه انقلاب

اقتدار منطقه‌ای ایران، زنگ خطر برای متحدان بی‌ثبات آمریکا

۲۰ اردیبهشت ۱۴۰۴
عقب‌نشینی آمریکا نتیجه مقاومت ملت ایران و هدایت‌های رهبر انقلاب است
جبهه انقلاب

عقب‌نشینی آمریکا نتیجه مقاومت ملت ایران و هدایت‌های رهبر انقلاب است

۲۰ اردیبهشت ۱۴۰۴
دشمن فهمیده که با ایرانِ مقاوم نمی‌توان یک‌طرفه مذاکره کرد
جبهه انقلاب

دشمن فهمیده که با ایرانِ مقاوم نمی‌توان یک‌طرفه مذاکره کرد

۲۰ اردیبهشت ۱۴۰۴
عقب‌نشینی آمریکا نشان‌دهنده تغییرات اساسی در رویکرد این کشور نسبت به ایران است
جبهه انقلاب

عقب‌نشینی آمریکا نشان‌دهنده تغییرات اساسی در رویکرد این کشور نسبت به ایران است

۲۰ اردیبهشت ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

  • درباره ما
  • ارتباط با ما
  • درباره ما
  • ارتباط با ما
تلگرام
اینستاگرام
سروش پلاس
بله
ایتا
آپارات
یوتیوب

کلیه حقوق برای خبر۲۴ محفوظ است

افزودن لیست پخش جدید

بدون نتیجه
مشاهده تمام نتایج
  • ارتباط با ما
  • درباره ما
  • صفحه اصلی

© 2025 جی نیوز - تمامی حقوق برای سایت راست چین و علی عاشوری محفوظ می باشد.