هوش مصنوعی را قبل از این‌که خیلی دیر شود متوقف کنید

کارشناسان جهانی هشدار می‌دهند، باید هوش مصنوعی را قبل از این‌که خیلی دیر شود متوقف کرد.

کد خبر : 1294544
تاریخ انتشار : چهارشنبه 16 اسفند 1402 - 6:25

 

به گزارش پایگاه خبری “ججین” به نقل از ایسنا، در جهانی که به طور فزاینده تحت سلطه هوش مصنوعی(AI) قرار می‌گیرد، گروهی از کارشناسان خواستار تغییر به سمت فناوری‌های انسان محور هستند.

به نقل از اس‌اف، این گروه بین‌المللی مخالف ایجاد فناوری‌های جدید هوش مصنوعی صرفا برای ساخت رایانه‌های جدید و پیشرفته‌تر است. در عوض، آنها توسعه‌دهندگان را ترغیب می‌کنند که بر روی فناوری‌هایی تمرکز کنند که واقعا نیازهای انسان را برآورده می‌کند و تجربه انسانی را افزایش می‌دهد.

کتاب جدید آنها، با نام «هوش مصنوعی انسان محور»، که شامل مشارکت ۵۰ متخصص از ۱۲ کشور در رشته‌های مختلف، از جمله علوم رایانه، حقوق و جامعه شناسی است، به مفهوم تغییر هوش مصنوعی از پیشرفت‌های مبتنی بر فناوری به پیشرفت‌های متمرکز بر بشر می‌پردازد. این تضمین می‌کند که فناوری‌ها به جای جایگزینی یا بی ارزش کردن کارگران انسانی، با رفاه مردم همسو شوند.

شانون والور(Shannon Vallor)، یک کارشناس برجسته از دانشگاه ادینبرو، تاکید می‌کند که هدف هوش مصنوعی انسان‌محور حمایت و توانمندسازی انسان‌ها است و در تضاد شدید با فناوری توسعه‌یافته صرفا برای نمایش قدرت است. او رشد هوش مصنوعی مولد را خاطرنشان و از توسعه آن انتقاد می‌کند که منجر به فناوری‌هایی می‌شود که مردم باید با آن سازگار شوند و با آن رقابت کنند، نه اینکه این فناوری طراحی‌شده زندگی افراد را آسان‌تر کند.

او می‌گوید: آنچه به دست می‌آوریم چیزی است که باید با آن کنار بیاییم، این برخلاف چیزی است که طراحی کرده‌ایم تا برای ما سودمند باشد.

والور در یک بیانیه رسانه‌ای توضیح می‌دهد که این فناوری آن چیزی نیست که ما به آن نیاز داریم و به جای تطبیق فناوری‌ها با نیازهایمان، خودمان را با نیازهای فناوری تطبیق می‌دهیم.

این کتاب نگرانی‌هایی را در مورد مسیر فعلی توسعه هوش مصنوعی، از جمله تعصبات سیستمی و نگرانی‌های حفظ حریم خصوصی، مطرح می‌کند. مالوینا آنا ووجسیک(Malwina Anna Wójcik) می‌گوید که جوامع به حاشیه رانده شده اغلب از فرآیند طراحی هوش مصنوعی حذف می‌شوند و در نتیجه فناوری‌هایی ایجاد می‌شود که ساختارهای قدرت موجود و تبعیض را تقویت می‌کند. مت مالون(Matt Malone) در مورد اینکه چگونه هوش مصنوعی حریم خصوصی را به چالش می‌کشد، می‌گوید: در حالی که بسیاری از روش‌های جمع‌آوری و استفاده از داده‌ها توسط هوش مصنوعی بی‌اطلاع هستند اما ادغام شدن فناوری در زندگی ما، فردیت‌مان را تهدید می‌کنند.

مالون توضیح می‌دهد: حریم خصوصی تعیین می‌کند که ما تا چه حد اجازه می‌دهیم فناوری به حوزه‌های زندگی و آگاهی انسان ورود کند. اما با محو شدن این موارد، حریم خصوصی به سرعت بازتعریف می‌شود و در حالی که هوش مصنوعی زمان، توجه و اعتماد بیشتری را به خود اختصاص می‌دهد، حریم خصوصی همچنان نقش تعیین‌کننده‌ای در ترسیم مرزهای بین انسان و فناوری ایفا می‌کند.

این گروه بین‌المللی همچنین تاثیرات رفتاری هوش مصنوعی را بررسی کردند و نویسندگان نشان دادند که چگونه پلتفرم‌هایی مانند گوگل می‌توانند جنبه‌های اصلی انسانی مانند عقلانیت و حافظه را تغییر دهند و کنترل شخصی بر زندگی ما را کاهش دهند. آنها استفاده از هوش مصنوعی در رسانه‌های اجتماعی را برای محدود کردن بالقوه منافع کاربران و سوق دادن آنها به سمت افراط گرایی از طریق توصیه‌ محتوای مغرضانه مورد بررسی قرار دادند.

کارشناسان راه‌حل‌های عملی را برای ادغام رویکرد انسان محور به هوش مصنوعی، از جمله تنوع در تحقیقات، همکاری‌های بین رشته‌ای و شیوه‌های جمع‌آوری داده شفاف پیشنهاد می‌کنند. آنها همچنین بر اهمیت اعمال قوانین موجود برای هوش مصنوعی به جای بررسی مقررات کاملا جدید، تاکید می‌کنند و سیاست‌گذاران را تشویق می‌کنند تا با اطمینان هوش مصنوعی را کنترل کنند تا از نوآوری‌های غیرمسئولانه جلوگیری شود.

مالون می‌گوید: هیچ کس عصای جادویی ندارد. بنابراین، من به سیاستگذاران می‌گویم موضوع را جدی بگیرید. بهترین کاری را که می‌توانید انجام دهید. در حالی که سعی می‌کنید مکانیسم‌های حاکمیتی درست را ارائه دهید، طیف وسیعی از دیدگاه‌ها از جمله جوامع به حاشیه رانده شده و کاربران نهایی را به میز دعوت کنید. اما اجازه ندهید چند صدا که وانمود می‌کنند دولت‌ها نمی‌توانند هوش مصنوعی را بدون از بین بردن نوآوری کنترل کنند، شما را متوقف کند.

 


ارسال نظر شما
مجموع نظرات : 0 در انتظار بررسی : 0 انتشار یافته : ۰
  • نظرات ارسال شده توسط شما، پس از تایید توسط مدیران سایت منتشر خواهد شد.
  • نظراتی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نخواهد شد.

2 + ده =