۴ راه خالی کردن حساب بانکی و نابودی زندگی افراد توسط هوش مصنوعی!
تاریخ انتشار: ۲۵ خرداد ۱۴۰۲ | کد خبر: ۳۷۹۹۰۰۱۶
یک کارشناس امنیت سایبری چهار نگرانی در مورد هوش مصنوعی را عنوان کرده است. این نگرانیها در حالی عنوان میشوند که این فناوری همچنان در حال تکامل است.
به نقل از روزنامه سان، امروزه هوش مصنوعی می تواند کارهایی مانند نوشتن مقاله، تولید کدهای پیچیده و خلاصه کردن اسناد طولانی را در چند ثانیه انجام دهد. تعداد کمی از بخشها توانستهاند به پیشرفت چشمگیری که در مدت زمان کمی هوش مصنوعی به آن دست یافته برسند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
حملات سایبری با استفاده از هوش مصنوعی
الاشاب گفت: «ما میتوانیم پیش بینی کنیم که مجرمان سایبری از هوش مصنوعی برای توسعه روشهای حمله پیچیده استفاده کنند.»این حملات شامل ایمیلهای «فیشینگ نیزهای یا هدفمند» ایجاد شده توسط هوش مصنوعی یا بدافزارهای مبتنی بر این فناوری است که سازگار میشوند و تکامل مییابند. «فیشینگ نیزهای» یک تلاش هدفمند برای سرقت اطلاعات حساس از یک قربانی خاص است. این نوع «فیشینگ» اغلب برای دسترسی به حساب های مالی و شخصی قربانی انجام میشود. کارشناسان اخیرا بدافزارهای جهش یافته را مشاهده کردهاند. عوامل تهدید و حملات سایبری از ChatGPT OpenAI برای تولید بدافزارهای مخرب استفاده میکردند.
هوش مصنوعی دشمن
الاشاب گفت: «هوش مصنوعی دشمن» یکی دیگر از نگرانیهای اصلی کارشناسان است و به سوء استفاده از آسیب پذیریها در سیستمهای هوش مصنوعی اشاره دارد. این آسیب پذیریها در سیستمهای هوش مصنوعی میتواند به هکرها کمک کند تا اقدامات امنیتی را دور بزنند یا مدلهای هوش مصنوعی را دستکاری کنند تا خروجی های گمراه کننده بدهند. یکی از نمونههای آن دستکاری هوش مصنوعی برای به خطر انداختن محرمانه بودن اطلاعات بیماران یا مشتریان به منظور سرقت دادهها یا پول آنها است.
جعلهای عمیق
همزمان با پیچیده تر شدن هوش مصنوعی، جعلهای عمیق و اطلاعات نادرست نیز همچنان یکی از نگرانیهای اصلی خواهد بود. الاشاب در این باره گفت: جعلهای عمیق تولید شده توسط هوش مصنوعی، که تصاویر، صدا یا ویدیوها را دستکاری میکنند، خطراتی را از نظر انتشار اطلاعات نادرست و تأثیر بالقوه بر افکار عمومی یا آسیب رساندن به شهرت به همراه دارند. بازیگران عرصه جعل عمیق در حال حاضر از هوش مصنوعی برای انجام حملات شبیهسازی شده صوتی استفاده میکنند که با تقلید از صدای یک فرد، خانواده یا دوستان او را بدون پول فریب میدهند.
نگرانیهای اخلاقی
البته، این انتظار بیجا نیست که با تکامل هوش مصنوعی، نگرانیهای اخلاقی و نگرانیهای درباره امنیت حریم خصوصی بیشتری ایجاد شود. الاشاب گفت: افزایش اتکا به هوش مصنوعی در امنیت سایبری سوالاتی را در مورد حریم خصوصی دادهها، تعصب الگوریتمی و استفاده اخلاقی از سیستمهای هوش مصنوعی ایجاد میکند. تعدادی از الگوریتمهای هوش مصنوعی در گذشته نشان دادهاند که تعصبات نژادی و جنسیتی در این فناوری رایج است.امروزه هوش مصنوعی نیز به طور فزایندهای در دادگاه ها مورد استفاده قرار میگیرد، با این حال، فناوری هوش مصنوعی مستعد عدم دقت و حتی تبعیض است. برای مقابله با چنین نگرانیهایی، کارشناسان در حال تماس با آژانسهای قانونگذاری برای تنظیم مقررات هستند. اخیرا، یونسکو توصیه نامهای درباره اخلاق هوش مصنوعی برای تعیین استاندارد جهانی برای نهادهای حاکم ایجاد کرده است.
منبع: همشهری آنلاین
منبع: عصر ایران
کلیدواژه: هوش مصنوعی حملات سایبری هوش مصنوعی هوش مصنوعی نگرانی ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.asriran.com دریافت کردهاست، لذا منبع این خبر، وبسایت «عصر ایران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۹۹۰۰۱۶ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
هوش مصنوعی گرایش سیاسی افراد را از چهرهشان میخواند
ایتنا - مطالعهای جدید میگوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاههای سیاسی فرد مشابه این است که چگونه مصاحبههای شغلی میتوانند موفقیت در شغل را پیشبینی کنند یا مصرف الکل میتواند خشونت را تحریک کند.
پس از آنکه نتایج یک پژوهش نشان داد هوش مصنوعی میتواند گرایش سیاسی افراد را از روی چهرههای بدون حالت و بیاحساس پیشبینی کند، محققان هشدار دادند که فناوریهای تشخیص چهره از آنچه قبلا به نظر میرسید، «تهدیدآمیزتر» شده و برای حریم خصوصی چالش جدی به وجود آوردهاند.
مطالعهای جدید که در مجله «روانشناس آمریکایی» (American Psychologist) منتشر شد، میگوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاههای سیاسی فرد مشابه این است که چگونه مصاحبههای شغلی میتوانند موفقیت در شغل را پیشبینی کنند یا مصرف الکل میتواند خشونت را تحریک کند.
به گفته مایکل کوزینسکی، نویسنده ارشد این پژوهش، ۵۹۴ شرکتکننده قبل از آنکه هوش مصنوعی آنها را چهرهنگاری (استخراج اطلاعات مخصوص و منحصربهفرد یک چهره مانند اندازه و شکل چشم، بینی، لب) کند، پرسشنامهای درباره گرایش سیاسی خود پر کردند. سپس دادههای چهرهنگاری را با پاسخ پرسشنامههای جهتگیری سیاسی مقایسه کردند تا با استفاده از اطلاعاتی که از چهرهها به دست آورده بود، جهتگیری سیاسی هر شخص را پیشبینی کند.
کوزینسکی میگوید: «فکر میکنم مردم متوجه نیستند با انتشار یک تصویر ساده، در واقع چقدر خود و اطلاعات شخصیشان را برای دیگران فاش میکنند.»
او افزود: «ما میدانیم که گرایش جنسی، سیاسی و تفکرات مذهبی افراد باید محفوظ بماند. این موضوع در گذشته متفاوت بود. در گذشته شما میتوانستید به حساب کاربری فیسبوک افراد وارد شوید و به عنوان مثال گرایشهای سیاسی، آنچه را که پسند میکنند (لایک میزنند) و صفحاتی را که دنبال کردهاند، ببینید. اما فیسبوک سالها پیش آن را بست زیرا برای سیاستگذاران، فیسبوک و روزنامهنگاران واضح و مبرهن بود که این موضوع پذیرفتنی نیست و بسیار خطرناک است.»
کوسینسکی افزود: «در حال حاضر نیز هر کس میتواند به فیسبوک برود و عکس هر فردی را ببیند، حتی اگر آن فرد را هیچوقت ملاقات نکرده و او اجازه دسترسی به عکسش را نداده باشد. این مطالعه نشان میدهد اطلاعاتی که در تصویر افراد وجود دارد، ممکن است مشابه افشای جهتگیری سیاسی آنها باشد.»
محققان میگویند که تصاویر افراد شرکتکننده در این پژوهش را در شرایطی بسیار مشخص و کنترلشده جمعآوری کردند. به این ترتیب که این افراد همگی تیشرتهای مشکی پوشیده و زیورآلاتشان را در آورده بودند و در صورت نیاز ریششان را هم اصلاح کرده بودند. همچنین با دستمال مرطوب آرایش صورتشان را پاک کرده و موهایشان را با کش مو، گیره یا تل سر به عقب کشیده بودند تا اطراف صورت پخش نشوند. سپس چهرهها را از طریق الگوریتم چهره ویجیجی فیس۲ (VGGFace2) بررسی کردند.
محققان هشدار میدهند که فناوریهای نظارت بیومتریکی، به ویژه فناوریهای تشخیص چهره، تهدیدی جدیتر از گذشته برای حریم شخصی افرادند. پژوهشهای پیشتر نیز نشان داده بودند که تصاویر طبیعی چهره میتواند اطلاعات مهمی را درباره جهتگیری سیاسی و ویژگیهای شخصی دیگر انتقال دهند اما مطمئن نبودیم که این پیشبینیها به دلیل نحوه ارائه شخص و ویژگیهای ثابت چهره (خنثی) فعال شدهاند یا هر دو این عوامل. محققان میگویند، نتایج ما نشان میدهند که ویژگیهای ثابت چهره در انتقال این سیگنالها نقش مهمی دارند و افراد روی اطلاعات شخصی و حریم خصوصی خود کمترین کنترل را دارند، زیرا این اطلاعات بدون اجازه و کنترل شخص به دستگاههای نظارتی میرسد.
به گفته کوزینسکی، این الگوریتمها را میتوان بسیار سریع و ارزان برای میلیونها نفر اعمال کرد. به عقیده او این مطالعه بیشتر یک هشدار درباره فناوریهایی است که در گوشیها وجود دارد و به طور گسترده در همهجا استفاده میشود.