ChatGPT؛ ابزاری برای حملات مخرب سایبری؟!

ChatGPT؛ ابزاری برای حملات مخرب سایبری؟!
Category: مقالات Tags: ,

بکارگیری ChatGPT یا عدم استفاده از ChatGPT؟ این سوالی است که این روزها بارها در فضای مجازی مطرح شده است. تعجب‌آور نیست که ربات‌های هوش‌مصنوعی جامعه را تحت تاثیر قرار داده‌اند. FAIR شرکت متا (Meta)، LaMDA شرکت گوگل (Google)، Watson شرکت آی‌بی‌ام (IBM) و Cortana شرکت مایکروسافت (Microsoft) همگی نمونه‌های مختلفی از ربات‌های هوش مصنوعی هستند. Watson برای اولین بار در مسابقه محبوب تلویزیونی Jeopardy در فوریه 2011 حضور داشت! هوش مصنوعی مفهوم چندان جدیدی نیست. چیزی که جدید است این است که ChatGPT به راحتی برای میلیون‌ها نفر در سراسر جهان قابل دسترس است و بکارگیری آن نیازی به هزینه زیادی ندارد. با این حال، از آن به عنوان فناوری بدیعی یاد شده که تهدیدی نیز محسوب می‌شود زیرا ممکن است توسط تبهکاران سایبری برای تسهیل اجرای حملات مورد سوءاستفاده قرار گیرد.

ویروس‌نویس ظریف یا فقط کد مفهومی ضعیف؟

توانایی ChatGPT برای نوشتن بدافزار محدود است؛ در اوایل دوران ارائه آن، نمونه‌هایی متنوع از «بدافزار» (Malware) توسط این ابزار نوشته شد و از طریق اینترنت آلودگی منتشر شد. در زمان نوشتن این مقاله، توانایی Chat GPT در نوشتن «بدافزار» گرچه به طور کامل مسدود نشده اما به شدت محدود شده است. با توجه به به‌روزرسانی‌های اخیر ChatGPT، با درنظر گرفتن سیاست‌ها و قوانین وضع شده، توانایی آن در جهت اجرای بسیاری از کارها – به جز هدف اصلی که به منظور آن طراحی‌شده‌ – محدود گردیده است.

امنیت chatGPT

تلاش برای بکارگیری ChatGPT به منظور نوشتن الگویی که ممکن است برای ایجاد بدافزار مورد استفاده قرار گیرد، منجر به معماری پایه Server-Client شد که قطعه کد آن را در ادامه مشاهده می‌کنید. آیا واقعاً این قطعه کد برای پیاده‌سازی و اجرای سرور فرمان‌دهی و کنترل (Command and Control – به اختصار C2) مفید است؟ قطعاً خیر، روش‌های دیگری برای یافتن چارچوب‌ها (Framework) و Repository در اینترنت وجود دارد که خارج از موضوع این مقاله است.

ساخت ویروس با chatGPT

 

یکی از روش‌های بالقوه این است که برای یک هدف خاص، ChatGPT از یک کارزار اطلاعاتی منبع باز (Open-source) تغذیه کند و الگوهای مهندسی اجتماعی را ارائه دهد. این نوع بکارگیری ChatGPT بهتر از قابلیت‌های فعلی آن است و به طور بالقوه در حال حاضر در حال بکارگیری می‌باشد.

نویسندگان بدافزار و راهبران امنیتی در یک بازی دائمی “موش و گربه” هستند. تکنیک‌های جدید و پیشرفته حملات با سرعتی سریع توسط تبهکاران سایبری اجرا و بکار گرفته می‌شوند و راهبران و متخصصان امنیتی نیز برای درک آنها به رقابت می‌پردازند. این امر مستلزم درک عمیق و تحقیق در مورد برنامه‌های کاربردی و سیستم‌های عامل آنها است.

Copilot شرکت مایکروسافت با بکارگیری OpenAI Codex و دریافت تمام انباره‌های کدهای عمومی GitHub، کدنویسی را تسهیل می‌کند. سپس با بکارگیری یک مدل پیش‌بینی (Prediction Model)، کدی را به کاربر پیشنهاد می‌دهد. کاربر به سادگی می‌تواند توضیحاتی (Comment) را به کد اضافه نموده و Copilot قطعه کد یک Function را پیشنهاد می‌دهد. تمایز مهم این است که Copilot مایکروسافت از OpenAI Codex که به طور خاص برای تولید کد طراحی شده، استفاده می‌کند. در حالی که ChatGPT برای پردازش زبان طبیعی و ایجاد محتوا و متن طراحی شده است. در مقایسه، Copilot از ChatGPT در قابلیت تهاجمی پیشی می‌گیرد.

در واقع با مشخص نمودن هدف قطعه کد مورد نظر، Copilot، قطعه کد مربوط به آن را به صورت Function پیشنهاد می‌دهد. با توجه به اینکه کد ایجاد شده توسط Copilot دارای این قابلیت است که می‌توان آن را مستقیم به عنوان ورودی در هنگام برنامه‌نویسی مورد استفاده قرار داد، کد ایجاد شده را می‌توان در یک فایل اجرایی کامپایل نمود. Copilot برای بسیاری از زبان‌های برنامه‌نویسی در دسترس می‌باشد. با توجه به چندمنظوره بودن آن و قابلیت ایجاد تولید بدافزار هدفمند در زبان‌های برنامه‌نویسی مختلف، همچنان ضروری است که یک نویسنده بدافزار کارایی Function ایجاد شده توسط Copilot را بررسی نموده و از عملکرد مناسب آن اطمینان حاصل کند. در ادامه یک نمونه Function تولید شده توسط Copilot نشان داده شده است.

ساخت بدافزار با چت جی پی تی

جمع‌بندی

تبهکاران سایبری حرفه‌ای به طور مداوم به منظور اجرای حملات هدفمند خود، ابزارها و فناوری‌های نوین را بکار می‌گیرند. کدهای تولیدشده توسط ChatGPT تنها شاید برای تبهکاران سایبری غیرحرفه‌ای آن هم برای ساخت بدافزارهای ابتدایی می‌توانند کاربرد داشته باشند.

Turla را نظر بگیرید که اگر چه نسخ ابتدایی آن متکی به PowerShell بودند اکنون قادر به ساخت بدافزارهایی همچون Kazuar و مبهم‌‌سازهای مبتنی بر NET (.NET Obfuscator). شده است. در چندین مورد بدافزاری که توسط ChatGPT ایجاد شده بود، غیرکاربردی بود یا بلافاصله توسط راهکارهای امنیتی Trellix شناسایی شد، که نشان‌دهنده نقطه ضعف ChatGPT و فقدان خلاقیت مورد نیاز برای اجرای حملات امروزی است. این مدل ارائه شده توسط ChatGPT اگر چه طرحی برای کمک به درک روش‌های مختلف پیاده‌سازی راهکار‌های امنیتی نرم‌افزاری تلقی می‌شود اما همچنان با مدلی کارامد که برای اجرای حملات تهاجمی مهاجمان مناسب باشد، فاصله زیادی دارد.