جلسه جو بایدن با غولهای فناوری در مورد خطرات هوش مصنوعی
تاریخ انتشار: ۱۶ اردیبهشت ۱۴۰۲ | کد خبر: ۳۷۶۸۷۴۷۶
به گزارش خبرنگار علم و فناوری ایسکانیوز؛ جو بایدن و کامالا هریس، معاون رئیس جمهور آمریکا اخیرا بر سر خطرات هوش مصنوعی جلسهای را با مدیران عامل غولهای فناوری برگزار کردند. بایدن اظهار امیدواری کرد که این گروه بتواند درباره آنچه که برای محافظت و پیشرفت جامعه مورد نیاز است، آموزش بدهد.
او همچنین به مدیران اجرایی شرکتهای فناوری گفت: کاری که شما انجام میدهید، پتانسیل خطر بالایی دارد.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
محبوبیت چتروبات هوش مصنوعی ChatGPT تا جایی زیاد شده که حتی بایدن هم آن را امتحان کرده و از سوی دیگر سرمایهگذاریهای کلانی در توسعه آن در حال رشد است. این هوش مصنوعی تا حدی رشد پیدا کرده که به راحتی میتواند متن متقاعدکنندهای شبیه انسان بنویسد و تصاویر، موسیقی و کدهای کامپیوتری جدید تولید کند.
اما این سادگی تقلید هوش مصنوعی از انسانها باعث شده که جنبشهایی علیه این فناوری به وجود بیاید. چند وقت پیش ایلان ماسک، مدیرعامل اسپیسایکس و تسلا، به همراه هزار نفر از مدیران اجرایی و فعالان فناوری نامه سرگشادهای را امضا کردند که در آن از لابراتوارهای توسعه هوش مصنوعی درخواست کردند که طراحی مدلهای پیشرفتهتر GPT-4 (نسخه جدید ChatGPT) را متوقف کنند. دلیلی که آنها در نامه خود آوردهاند، این است: همانطور که تحقیقات گسترده نشان داده و آزمایشگاههای برتر هوش مصنوعی نیز آن را تائید کردهاند، سیستمهای هوش مصنوعی با هوش مشابه انسان میتوانند خطرات عمیقی را برای جامعه و بشریت ایجاد کنند.
آنها گوشزد کردند از آنجا که هوش مصنوعی پیشرفته میتواند نشان دهنده یک تغییر عمیق در تاریخ حیات باشد، باید برای آن برنامهریزی و با دقت و منابع متناسب مدیریتش کرد. متأسفانه این سطح از برنامهریزی و مدیریت فعلاً بهچشم نمیخورد، هرچند که آزمایشگاههای هوش مصنوعی در ماههای اخیر وارد رقابتی خارج از کنترل برای توسعه و پیادهسازی ذهنهای دیجیتالی قدرتمندتری شدند که هیچکس – نه حتی سازندگانشان – نمیتوانند آنها را بفهمند و پیشبینی یا به شکلی قابل اطمینان کنترل کنند.
در همین راستا، چند روز پیش جفری هینتون، شخصی که فناوری پایه را برای سیستمهای هوش مصنوعی ایجاد کرده و لقب «پدرخوانده هوش مصنوعی» را گرفته، اعلام کرد که پیشرفتهای انجام شده در زمینه هوش مصنوعی خطرات عمیقی را برای جامعه و بشریت رقم خواهد زد. او همچنین از کار خود در شرکت گوگل استعفا داد.
دولتهای سراسر جهان نیز اخیرا احساس خطر کردهاند که چتروباتها به راحتی میتوانند مشاغل را از بین ببرند، مردم را فریب دهند و اطلاعات نادرست منتشر کنند.
از این رو، دولت آمریکا از سرمایهگذاری ۱۴۰ میلیون دلاریاش برای ایجاد هفت موسسه تحقیقاتی جدید هوش مصنوعی خبر داد. علاوه براین، قرار است که دفتر مدیریت و بودجه کاخ سفید در چند ماه آینده دستورالعملهایی را درباره نحوه استفاده آژانسهای فدرال از ابزارهای هوش مصنوعی صادر کند. همچنین توسعهدهندگان هوش مصنوعی قرار است تعهد مستقلی برای شرکت در ارزیابی عمومی سیستمهای خود ارائه دهند.
مقامات آمریکا میگویند: کاخ سفید باید اقدامات قویتری انجام دهد، زیرا سیستمهای هوش مصنوعی ساخته شده توسط این شرکتها در حال ادغام شدن با هزاران برنامه مصرف کننده هستند.
آنها میافزایند: در لحظهای هستیم که چند ماه آینده برایمان تعیین کننده است که آیا ما در این زمینه در جهان پیشگام میشویم یا این جایگاه را به کشورهای دیگر واگذاریم میکنیم.
در این جلسه، مقامات دولتی توانستند به صورت رو در رو با ساندار پیچا مدیرعامل گوگل، ساتیا نادلا مدیرعامل مایکروسافت و روسای دیگر در مورد هوش مصنوعی صحبت کنند. آنها بعد از این جلسه اعلام کردند که بخش خصوصی مسئولیت اخلاقی و قانونی خود را برای تضمین ایمنی محصولاتش دارد.
نسترن صائبی صفت کد خبر: 1180304 برچسبها هوش مصنوعیمنبع: ایسکانیوز
کلیدواژه: هوش مصنوعی هوش مصنوعی
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.iscanews.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «ایسکانیوز» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۶۸۷۴۷۶ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
تشخیص گرایش سیاسی افراد از روی چهرهشان توسط هوش مصنوعی
هوش مصنوعی میتواند جهتگیری سیاسی افراد را از روی چهرههایشان پیشبینی کند که البته مباحثی را درباره تهدید حریم خصوصی به میان آورده است.
به گزارش ایسنا، پژوهشگران پس از مطالعهای که نشان داد هوش مصنوعی میتواند در پیشبینی جهتگیری سیاسی افراد بر اساس تصاویر چهرههای بدون حالت و بی احساس آنها موفق باشد، هشدار میدهند که فناوریهای تشخیص چهره «تهدیدکنندهتر از آنچه قبلاً تصور میشد» هستند و «چالشهای جدی برای حفظ حریم خصوصی» ایجاد میکنند،
به نقل از نیویورک پست، مطالعهای که به تازگی در مجله American Psychologist منتشر شده است، میگوید که توانایی الگوریتم هوش مصنوعی برای حدس زدن دقیق دیدگاههای سیاسی یک فرد خیره کننده است.
مایال کوزینسکی نویسنده اصلی این مطالعه گفت که ۵۹۱ شرکتکننده یک پرسشنامه درباره گرایش سیاسی را قبل از اینکه هوش مصنوعی گرایش سیاسی آنها را از چهرهشان توصیف کند، پر کردند و هوش مصنوعی تحلیل خود را با پایگاه داده حاصل از آن پرسشنامهها برای پیشبینی گرایش سیاسی آنها مقایسه کرد.
کوزینسکی که دانشیار رفتار سازمانی در دانشکده تحصیلات تکمیلی بازرگانی دانشگاه استنفورد است، میگوید: من فکر میکنم که مردم متوجه نمیشوند که صرفاً با در اختیار قرار دادن یک عکس، چقدر خود را در معرض شناخت قرار میدهند.
ما میدانیم که گرایش جنسی، گرایش سیاسی و دیدگاههای مذهبی مردم باید محافظت شود. این قبلا متفاوت بود. در گذشته میتوانستید به حساب فیسبوک هر کسی وارد شوید و مثلاً دیدگاههای سیاسی، پسندها و صفحاتی که دنبال میکند را ببینید. اما سالها پیش فیسبوک این قابلیت را مسدود کرد، زیرا برای سیاستگذاران، فیسبوک و روزنامهنگاران واضح بود که از نظر حریم خصوصی قابل قبول نیست و خیلی خطرناک است.
اما همچنان میتوان به فیسبوک رفت و عکس هر کسی را دید. شخصی که عکسش را میبینید احتمالا هرگز شما را ندیده است و هرگز گرایش سیاسی خود را با شما به اشتراک نگذاشته است. با این حال، آنچه این مطالعه جدید نشان داده این است که تنها از روی عکس یک فرد، هر چند بدون احساس و حالت باشد، گرایش سیاسی وی را حدس زد.
پژوهشگران برای این مطالعه تصاویر شرکت کنندگان را به شیوهای بسیار کنترل شده جمعآوری کردند.
آنها میگویند شرکت کنندگان یک تیشرت مشکی ساده پوشیده بودند و زیورآلات خود را درآورده بودند و در صورت لزوم ریش خود را اصلاح کرده بودند. سپس از دستمال مرطوب صورت برای از بین بردن لوازم آرایشی استفاده شد تا زمانی که هیچ چیز روی پوست آنها باقی نماند. موهای بلند آنها با استفاده از کش مو، سنجاق مو و هدبند به عقب کشیده شد و در عین حال مراقب بودند که موهایشان بیرون نیاید.
سپس الگوریتم تشخیص چهره VGGFace۲ تصاویر چهره آنها را بررسی کرد.
نویسندگان میگویند، یافتههای آنها بر ضرورت تشخیص و رسیدگی به خطرات احتمالی فناوری تشخیص چهره برای حریم خصوصی افراد تأکید میکند.
آنها افزودند: شاید مهمتر از همه اینکه یافتههای ما نشان میدهد که فناوریهای نظارت بیومتریک گستردهتر از آنچه قبلا تصور میشد، تهدیدکننده هستند. در هر حال نتایج ما نشان میدهد که ویژگیهای صورت حتی در حالت خنثی و بدون ابراز احساسات نیز مقدار قابل توجهی از نشانهها را منتقل میکند که استفاده از فناوری تشخیص چهره میتواند نشان دهنده کنترل کمتر افراد بر حریم خصوصی خود باشد.
کوزینسکی میگوید، الگوریتمها را میتوان به راحتی برای میلیونها نفر به شکل بسیار سریع و ارزان اعمال کرد و مطالعه ما بیشتر یک داستان هشداردهنده در مورد این فناوری است که در تلفن همه وجود دارد و در همه جا به وفور استفاده میشود.
پژوهشگران در پایان به این نتیجه رسیدند که حتی تخمینهای خام از ویژگیهای شخصیتی افراد میتواند کارایی کمپینهای متقاعدسازی انبوه آنلاین را به طور قابل توجهی بهبود بخشد و پژوهشگران، مردم و سیاستگذاران باید توجه داشته باشند و سیاستهای سختگیرانهای را برای تنظیم ضبط و پردازش تصاویر چهره در نظر بگیرند.
انتهای پیام