Web Analytics Made Easy - Statcounter

یک کارشناس امنیت سایبری چهار نگرانی در مورد هوش مصنوعی را عنوان کرده است. این نگرانی‌ها در حالی عنوان می‌شوند که این فناوری همچنان در حال تکامل است.

به نقل از روزنامه سان، امروزه هوش مصنوعی می تواند کارهایی مانند نوشتن مقاله، تولید کدهای پیچیده و خلاصه کردن اسناد طولانی را در چند ثانیه انجام دهد. تعداد کمی از بخش‌ها  توانسته‌اند به پیشرفت چشمگیری که در مدت زمان کمی هوش مصنوعی به آن دست یافته برسند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

در تنظیمات پیشرفته تر، هوش مصنوعی به ساخت واکسن و محاسبه معادلات پیچیده فیزیک برای دانشمندان کمک می‌کند. این‌ها تنها چند نمونه از شاهکارهای چشمگیر متعددی است که این فناوری تا به امروز انجام داده است. با این حال، مانند همه پیشرفت‌های تکنولوژیکی، مسائل و چالش‌های زیادی نیز پیرامون هوش مصنوعی پیچیده وجود دارد. یوسف الاشاب، مشاور و مهندس امنیت ابری و مشاور « DevOps» و مهندس « itcertificate.org» نگرانی‌های کلیدی خود در این باره  را با روزنامه سان در میان گذاشت.


حملات سایبری با استفاده از هوش مصنوعی

الاشاب گفت: «ما می‌توانیم پیش بینی کنیم که مجرمان سایبری از هوش مصنوعی برای توسعه روش‌های حمله پیچیده استفاده کنند.»این حملات شامل ایمیل‌های «فیشینگ نیزه‌ای یا هدفمند» ایجاد شده توسط هوش مصنوعی یا بدافزارهای مبتنی بر این فناوری است که سازگار می‌شوند و تکامل می‌یابند. «فیشینگ نیزه‌ای» یک تلاش هدفمند برای سرقت اطلاعات حساس از یک قربانی خاص است. این نوع «فیشینگ» اغلب برای دسترسی به حساب های مالی و شخصی قربانی انجام می‌شود. کارشناسان اخیرا بدافزارهای جهش یافته را مشاهده کرده‌اند. عوامل تهدید و حملات سایبری از ChatGPT OpenAI برای تولید بدافزارهای مخرب استفاده می‌کردند.


هوش مصنوعی دشمن

الاشاب  گفت: «هوش مصنوعی دشمن» یکی دیگر از نگرانی‌های اصلی کارشناسان است و به سوء استفاده از آسیب پذیری‌ها در سیستم‌های هوش مصنوعی اشاره دارد. این آسیب پذیری‌ها در سیستم‌های هوش مصنوعی می‌تواند به هکرها کمک کند تا اقدامات امنیتی را دور بزنند یا مدل‌های هوش مصنوعی را دستکاری کنند تا خروجی های گمراه کننده بدهند. یکی از نمونه‌های آن دستکاری هوش مصنوعی برای به خطر انداختن محرمانه بودن اطلاعات بیماران یا مشتریان به منظور سرقت داده‌ها یا پول آن‌ها است.


جعل‌های عمیق

همزمان با پیچیده تر شدن هوش مصنوعی، جعل‌های عمیق و اطلاعات نادرست نیز همچنان یکی از نگرانی‌های اصلی خواهد بود. الاشاب در این باره گفت: جعل‌های عمیق تولید شده توسط هوش مصنوعی، که تصاویر، صدا یا ویدیوها را دستکاری می‌کنند، خطراتی را از نظر انتشار اطلاعات نادرست و تأثیر بالقوه بر افکار عمومی یا آسیب رساندن به شهرت به همراه دارند. بازیگران عرصه جعل عمیق در حال حاضر از هوش مصنوعی برای انجام حملات شبیه‌سازی شده صوتی استفاده می‌کنند که با تقلید از صدای یک فرد، خانواده یا دوستان او  را بدون پول فریب می‌دهند.


نگرانی‌های اخلاقی

البته، این انتظار بیجا نیست که با تکامل هوش مصنوعی، نگرانی‌های اخلاقی و نگرانی‌های درباره امنیت حریم خصوصی بیشتری ایجاد شود. الاشاب گفت: افزایش اتکا به هوش مصنوعی در امنیت سایبری سوالاتی را در مورد حریم خصوصی داده‌ها، تعصب الگوریتمی و استفاده اخلاقی از سیستم‌های هوش مصنوعی ایجاد می‌کند. تعدادی از الگوریتم‌های هوش مصنوعی در گذشته نشان داده‌اند که تعصبات نژادی و جنسیتی در این فناوری رایج است.امروزه هوش مصنوعی نیز به طور فزاینده‌ای در دادگاه ها مورد استفاده قرار می‌گیرد، با این حال، فناوری هوش مصنوعی مستعد عدم دقت و حتی تبعیض است. برای مقابله با چنین نگرانی‌هایی، کارشناسان در حال تماس با آژانس‌های قانون‌گذاری برای تنظیم مقررات هستند. اخیرا، یونسکو توصیه‌ نامه‌ای درباره اخلاق هوش مصنوعی برای تعیین استاندارد جهانی برای نهادهای حاکم ایجاد کرده است.

منبع: همشهری آنلاین

منبع: عصر ایران

کلیدواژه: هوش مصنوعی حملات سایبری هوش مصنوعی هوش مصنوعی نگرانی ها

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.asriran.com دریافت کرده‌است، لذا منبع این خبر، وبسایت «عصر ایران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۹۹۰۰۱۶ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

هوش مصنوعی گرایش سیاسی افراد را از چهره‌شان می‌خواند

ایتنا - مطالعه‌ای جدید می‌گوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاه‌های سیاسی فرد مشابه این است که چگونه مصاحبه‌های شغلی می‌توانند موفقیت در شغل را پیش‌بینی کنند یا مصرف الکل می‌تواند خشونت را تحریک کند.
پس از آنکه نتایج یک پژوهش نشان داد هوش مصنوعی می‌تواند گرایش سیاسی افراد را از روی چهره‌های بدون حالت و بی‌احساس پیش‌بینی کند، محققان هشدار داد‌‌ند که فناوری‌های تشخیص چهره از آنچه قبلا به نظر می‌رسید، «تهدیدآمیزتر» شده‌‌ و برای حریم خصوصی چالش جدی به وجود آورده‌اند.  

مطالعه‌ای جدید که در مجله «روانشناس آمریکایی» (American Psychologist) منتشر شد، می‌گوید توانایی این الگوریتم در حدس زدن دقیق درباره دیدگاه‌های سیاسی فرد مشابه این است که چگونه مصاحبه‌های شغلی می‌توانند موفقیت در شغل را پیش‌بینی کنند یا مصرف الکل می‌تواند خشونت را تحریک کند.

به گفته مایکل کوزینسکی، نویسنده ارشد این پژوهش، ۵۹۴ شرکت‌کننده قبل از آنکه هوش مصنوعی آنها را چهره‌نگاری (استخراج اطلاعات مخصوص و منحصربه‌فرد یک چهره مانند اندازه و شکل چشم، بینی، لب) کند، پرسشنامه‌‌ای درباره گرایش سیاسی خود پر کردند. سپس داده‌های چهره‌نگاری را با پاسخ‌ پرسشنامه‌های جهت‌گیری سیاسی مقایسه کردند تا با استفاده از اطلاعاتی که از چهره‌ها به دست آورده بود، جهت‌گیری سیاسی هر شخص را پیش‌بینی کند.

کوزینسکی می‌گوید: «فکر می‌کنم مردم متوجه نیستند با انتشار یک تصویر ساده، در واقع چقدر خود و اطلاعات شخصی‌شان را برای دیگران فاش می‌کنند.»

او افزود: «ما می‌دانیم که گرایش جنسی، سیاسی و تفکرات مذهبی افراد باید محفوظ بماند. این موضوع در گذشته متفاوت بود. در گذشته شما می‌توانستید به حساب کاربری فیس‌بوک افراد وارد شوید و به عنوان مثال گرایش‌های سیاسی، آنچه را که پسند می‌کنند (لایک می‌زنند) و صفحاتی را که دنبال کرده‌اند، ببینید. اما فیس‌بوک سال‌ها پیش آن را بست زیرا برای سیاست‌گذاران، فیس‌بوک و روزنامه‌نگاران واضح و مبرهن بود که این موضوع پذیرفتنی نیست و بسیار خطرناک است.»

کوسینسکی افزود: «در حال حاضر نیز هر کس می‌تواند به فیس‌بوک برود و عکس هر فردی را ببیند، حتی اگر آن فرد را هیچ‌وقت ملاقات نکرده و او اجازه دسترسی به عکسش را نداده باشد. این مطالعه نشان می‌دهد اطلاعاتی که در تصویر افراد وجود دارد، ممکن است مشابه افشای جهت‌گیری سیاسی آن‌ها باشد.»

محققان می‌گویند که تصاویر افراد شرکت‌کننده در این پژوهش را در شرایطی بسیار مشخص و کنترل‌شده جمع‌آوری کردند. به این ترتیب که این افراد همگی تی‌شرت‌های مشکی‌ پوشیده و زیور‌آلاتشان را در آورده‌ بودند و در صورت نیاز ریششان را هم اصلاح کرده بودند. همچنین با دستمال مرطوب آرایش صورتشان را پاک کرده و موهایشان را با کش مو، گیره یا تل سر به عقب کشیده بودند تا اطراف صورت پخش نشوند. سپس چهره‌ها را از طریق الگوریتم چهره وی‌جی‌جی فیس۲ (VGGFace2) بررسی کردند.

محققان هشدار می‌دهند که فناوری‌های نظارت بیومتریکی، به ویژه فناوری‌های تشخیص چهره، تهدیدی جدی‌تر از گذشته برای حریم شخصی افرادند. پژوهش‌های پیش‌تر نیز نشان داده بودند که تصاویر طبیعی چهره می‌تواند اطلاعات مهمی را درباره جهت‌گیری سیاسی و ویژگی‌های شخصی دیگر انتقال دهند اما مطمئن نبودیم که این پیش‌بینی‌ها به دلیل نحوه ارائه شخص و ویژگی‌های ثابت چهره (خنثی) فعال شده‌اند یا هر دو این عوامل. محققان می‌گویند، نتایج ما نشان می‌دهند که ویژگی‌های ثابت چهره در انتقال این سیگنال‌ها نقش مهمی دارند و افراد روی اطلاعات شخصی و حریم خصوصی خود کمترین کنترل را دارند، زیرا این اطلاعات بدون اجازه و کنترل شخص به دستگاه‌های نظارتی می‌رسد.

به گفته کوزینسکی، این الگوریتم‌ها را می‌توان بسیار سریع و ارزان برای میلیون‌ها نفر اعمال کرد. به عقیده او این مطالعه بیشتر یک هشدار درباره فناوری‌هایی است که در گوشی‌ها وجود دارد و به طور گسترده در همه‌جا استفاده می‌شود. 

دیگر خبرها

  • تشویق ۲۱۱ سوادآموز استان سمنان
  • هوش مصنوعی گرایش سیاسی افراد را از چهره‌شان می‌خواند
  • حساب بانکی چه افرادی مشمول مالیات می‌شود؟
  • افرادی که سهام عدالت دریافت نکرده‌اند بخوانند
  • این حساب‌های بانکی مشمول مالیات می‌شوند/ اعلام جزییات دریافت مالیات از تراکنش‌های بانکی
  • هوش مصنوعی جهت‌گیری سیاسی افراد را از روی چهره تشخیص می‌دهد
  • حساب بانکی چه افرادی مشمول مالیات بر سوداگری می‌شود؟ | نحوه شناسایی حساب های غیر تجاری
  • حساب بانکی چه افرادی مشمول مالیات بر سوداگری می‌شود؟
  • افرادی که سهام عدالت دریافت نکرده اند این مطلب را بخوانند
  • اسکیمر چیست و چگونه در دام کلاهبرداران اسکیمری نیفتیم؟