تحقیقات جدید نشان می دهد هوش مصنوعی خطرات پیش بینی نشده ای را برای انسان به همراه دارد.
به گزارش خط سلامت هوش مصنوعی دستکاری روانی، خرابکاری سازمانی و رادیکالسازی سیاسی را به همراه دارد.
سیستمهای هوش مصنوعی فوقهوشمند که از هوش انسانی پیشی میگیرند ممکن است خطرات وجودی را برای گونههای انسان به همراه داشته باشد.
از آنجایی که هوش مصنوعی با سرعت بیسابقهای به پیشرفت خود ادامه میدهد، مزایا و فرصتهای زیادی را برای نوآوری و پیشرفت فناوری به ارمغان میآورد.
با این حال، در میان هیجان و پیشرفت، خطرات بالقوه نگرانکنندهای در ارتباط با هوش مصنوعی وجود دارد.
تحقیقات جدید نشان داده است هوش مصنوعی - حتی چت ربات های ساده مانند ChatGPT - دستکاری روانی ظریفی را به همراه دارد.
تغییرات در قدرت جهانی
تلاشهای اخیر برای انتشار اطلاعات نادرست جهانی، پتانسیل بهرهبرداری از هوش مصنوعی برای دستکاری رأیدهندگان و نخبگان سیاسی و ایجاد بیثباتی اقتصادی یا سیاسی را نشان میدهد. 2،3،4 .
به عنوان مثال، در سال 2023، یک تصویر تولید شده توسط هوش مصنوعی که انفجاری در پنتاگون را نشان می دهد، قیمت سهام را به شدت کاهش داد.
قدرت مخرب سیستمهای هوش مصنوعی که بهعنوان سلاح روانشناختی به کار میروند بسیار فراتر از روشهای سنتی برای انتشار اطلاعات نادرست و دستکاری گروهی است.
تشخیص دستکاری و فریب مبتنی بر هوش مصنوعی تقریباً غیرممکن است و سیستم های هوش مصنوعی می توانند بدون نظارت انسان به طور مستقل عمل کنند.
مقیاس زمانی که در آن فعالیت میکنند، آنها را قادر میسازد تا در یک چشم به هم زدن تغییرات جهانی ایجاد کنند، به عنوان مثال، با خرید تدریجی داراییها در بخشهای مالی متعدد و مبادلات جهانی و سپس تخلیه همه چیز در کسری از ثانیه و در نتیجه شروع یک رکود جهانی.
خرابکاری سازمانی
خرابکاران می توانند با هک کردن سیستم های کامپیوتری شرکت و قرار دادن یک برنامه هوش مصنوعی نامرئی که در آن سیستم ها کار می کند، عملیات شرکت را مختل کنند.
برای ایجاد اختلال در عملیات، برنامه هوش مصنوعی میتواند اطلاعات را نادرست مسیریابی کند، اسناد شرکت را به طور نامحسوس تغییر دهد، جعل هویت کارکنان در ایمیلها یا تغییر کد برنامههای رایانهای.
خرابکاری مبتنی بر هوش مصنوعی با ایجاد سردرگمی، ارتباط نادرست، درگیری های بین فردی یا تاخیر در عملیات شرکت تداخل می کند.
در یک آزمایش اخیر، فلدمن و همکارانش (2024) نشان دادند حتی هوش مصنوعی ساده مانند ChatGPT میتواند ایمیلها را تغییر داده و کدهای رمزنگاری شده برای برنامههای رایانهای تولید کند، که نشان میدهد سیستمهای هوش مصنوعی ساده که در رایانههای یک شرکت نصب شدهاند ممکن است برای اختلال در عملیات شرکت کافی باشد.
فلدمن و همکارانش (2024) سپس توانایی ChatGPT را برای استفاده از مبهم سازی، تکنیکی که نظرات و نمادهای مرموز را در کد یک برنامه یا برنامه رایانه ای وارد می کند، آزمایش کردند.
هدف از مبهم سازی این است که درک کدهایی را که هنوز کاملاً کاربردی هستند برای انسان دشوار کند.
در اینجا ChatGPT با موفقیت کد یک برنامه کامپیوتری را مبهم کرد. اگر یک هوش مصنوعی مشابه ChatGPT کدهای مبهم اما کاربردی را در برنامه های کامپیوتری یک سازمان وارد کند، این به هوش مصنوعی زمان کافی می دهد تا ایمیل ها، گزارش ها و دستور کار جلسات را به طور نامحسوس تغییر دهد، در حالی که IT سعی می کند کدهای مبهم را درک کند.
یک تاکتیک مرتبط این است که کد نادرست را که درست به نظر می رسد در برنامه یا برنامه رایانه ای وارد کنید تا از اجرای آن جلوگیری شود. همانطور که تحقیقات قبلی نشان داده است، ChatGPT در تولید چنین کدهای جعلی بسیار ماهر است.
اگر یک هوش مصنوعی مشابه ChatGPT در سیستمهای رایانهای یک شرکت با موفقیت کدهای نادرست را در برنامههای رایانه مرکزی شرکت وارد کند، میگویند کسانی که خط تولید آن را اداره میکنند، تولید شرکت را متوقف میکند تا زمانی که IT بفهمد چه مشکلی وجود دارد. خرابکاران انسانی می توانستند از این تاخیر برای پیشروی استفاده کنند.
خطرات وجودی و هوش مصنوعی فوق هوشمند
نگرانی های نظری در مورد توسعه بالقوه سیستم های هوش مصنوعی فوق هوشمند وجود دارد که از هوش انسانی پیشی گرفته و خطرات وجودی برای بشریت ایجاد می کند.
در سناریوهایی که توسط کارشناسان در زمینه ایمنی هوش مصنوعی به تصویر کشیده شده است، یک سیستم هوش مصنوعی فوقهوشمند با اهداف ناهماهنگ یا مکانیسمهای کنترل ناکافی میتواند به طور ناخواسته آسیب فاجعهباری به بشریت وارد کند.
پیامدهای پیشبینیشده ممکن است شامل بلایای تکنولوژیکی مانند هک کردن حسابهای آنلاین شخصی در مقیاس بزرگ، تخریب شبکههای برق در بیشتر نقاط جهان یا ربودن شبکه جهانی وب باشد. برای ورود به صفحه اینستاگرام کلیک کنید.
تمام مطالب سایت اختصاصی و توسط تحریریه خط سلامت تولید شده است، استفاده با ذکر منبع و لینک دهی بلامانع است.