شناسه خبر: ۶۹۸۴
لینک کوتاه کپی شد

کلاهبرداری با تغییر صدا | هوش مصنوعی و کلاهبرداری

خفن ترین کلاهبرداری: تغییر صدا با هوش مصنوعی | (ویدیو) با صدای داداشم ازم اخاذی کردن!

روش جدید کلاهبرداران برای اخاذی و دریافت پول، استفاده از تغییر صدا با هوش مصنوعی است. با هم جزییات را بخوانیم.

کلاهبرداری با تغییر صدا

پر بازدید

ترینی‌ها :

کلاهبرداران با کمک هوش مصنوعی صدای عزیزان افراد را تقلید و از طرف آن‌ها برای خود طلب پول می‌کنند. چند وقتی است که ابزارهای تقلید صدا با هوش مصنوعی مورد‌توجه قرار گرفته‌اند و حالا به‌نظر می‌رسد که کلاهبرداران از این فناوری برای تقلید صدای نزدیکان قربانی استفاده می‌کنند تا از آن‌ها پول بگیرند. گزارشی تازه نشان می‌دهد که کلاهبرداران در سال 2022 با این روش حدود 11 میلیون دلار درآمد کسب کرده‌اند و اکثر قربانیان افراد مسن بوده‌اند.

اما به تازگی این روش در ایران هم مورد استفاده قرار گرفته. ویدیوی زیر را از یکی از هموطنان ببینید:

خبرگزاری واشنگتن پست اخیراً در گزارشی به موضوع سوءاستفاده از ابزارهای هوش مصنوعی برای تقلید صدا پرداخته است. این خبرگزاری می‌گوید کلاهبرداران با تقلید صدای عزیزان افراد، هزاران نفر را قربانی فریب‌های خود کرده‌اند.

طبق این گزارش، کلاهبرداری‌های جعل هویت در سال 2022 دومین کلاهبرداری رایج در آمریکا بوده است و 36 هزار پرونده را تشکیل داده. از این تعداد، 5 هزار پرونده به کلاهبرداری با تقلید صدا از طریق تماس تلفنی مربوط بوده است. کمیسیون تجارت فدرال ایالات متحده می‌گوید مجموع مبلغ کلاهبرداری به این روش 11 میلیون دلار برآورد می‌شود.

کلاهبرداری: این ربات نات کوین را به کیف پول وصل نکنید!

درخواست پول با تقلید صدای عزیزان شما!

در یکی از این گزارش‌ها گفته شده است که یک زوج سالمند پس از دریافت یک تماس تلفنی که فکر می‌کردند از سوی پسرشان بوده است، 15 هزار دلار را به‌وسیله بیت‌کوین به جیب کلاهبرداران واریز کرده‌اند. مجرمان با استفاده از هوش مصنوعی صدای پسر این زوج مسن را تقلید کرده و مدعی شده بودند که او در سانحه رانندگی یک دیپلمات آمریکایی را کشته است و حالا به پول نیاز دارد.

واشنگتن پست می‌گوید این حملات بیشتر افراد سالمند را هدف قرار داده‌اند؛ چرا که این گروه آگاهی کمتری نسبت به فناوری‌ها دارند و به‌طور کلی در برابر کلاهبرداری‌ها آسیب‌پذیرترند. دادگاه هنوز تصمیم نگرفته است که آیا شرکت‌های سازنده ابزارهای هوش مصنوعی می‌توانند به‌عنوان شریک جرم مسئول شناخته شوند یا خیر.

یکی از ابزارهای هوش مصنوعی که می‌تواند صدای افراد را تقلید کند متعلق به شرکت ElevenLabs است که با تقلید صدای چهره‌های سرشناس چند هفته پیش جنجالی شده بود.

 

 

آیا این خبر مفید بود؟

ارسال نظر

اخبار مرتبط سایر رسانه‌ها
    اخبار از پلیکان
    تمامی اخبار این باکس توسط پلتفرم پلیکان به صورت خودکار در این سایت قرار گرفته و سایت ترینی‌ها هیچگونه مسئولیتی در خصوص محتوای آن به عهده ندارد
    اخبار روز سایر رسانه ها
      اخبار از پلیکان
      تمامی اخبار این باکس توسط پلتفرم پلیکان به صورت خودکار در این سایت قرار گرفته و سایت ترینی‌ها هیچگونه مسئولیتی در خصوص محتوای آن به عهده ندارد