باشگاه خبرنگاران جوان؛ جواد فراهانی – OpenAI، توسعه دهنده پلت فرم ChatGPT، قصد خودرا برای استخدام یک «مدیر ارشد آمادگی» برای رسیدگی به چالش های امنیتی و اجتماعی ناشی از فناوری های خود اعلام نموده است.
سم آلتمن، مدیرعامل، این نقش آینده را «شغلی طاقت فرسا» توصیف کرد و تاکید کرد که هدف، رسیدگی به «چالش های واقعی» بوجود آمده توسط ابزار های پیشرفته هوش مصنوعی است.
این اطلاعیه در زمانی منتشر می شود که این شرکت با انتقادات گمانه زننده ای مواجه است. در حالیکه برخی آنرا به اغراق در مورد خطرات فناوری هایش برای اهداف بازاریابی متهم می کنند، گزارش های دیگر نگرانی های مشروعی را مطرح می کنند که از نیاز به این سمت پشتیبانی می کنند.
همچون برجسته ترین این نگرانی های مستند عبارتند از:
• افرادی که گرفتار پریشانی عاطفی هستند برای حمایت روانی به ChatGPT مراجعه می کنند، و این احتمال وجود دارد که پاسخ های خودکار بجای حل مشکلات سلامت روان، آنها را تشدید کنند.
• قابلیت های مدلهای زبانی در امنیت سایبری به حدی تکامل یافته است که می توانند لطمه پذیری های حیاتی در سیستم های کامپیوتری را تشخیص دهند.
آلتمن بوسیله پلت فرم X در این مورد گفت: «ما در سال ۲۰۲۵ نگاهی اجمالی به تأثیر مدلها بر سلامت روان داشتیم و الان شاهد رسیدن این مدلها به سطح بالایی از پیچیدگی در حوزه امنیت کامپیوتر هستیم. ما وارد مرحله ای می شویم که نیاز به درک دقیق تری از چگونگی سوءاستفاده از این توانایی ها و چگونگی کاهش معایب آنها در عین حفظ مزایای عظیم آنها دارد.»
شرکت OpenAI اکنون برای کاهش خطرات مدلهای جدید خود به آن چه «حفاظت های امنیتی بطور فزاینده پیچیده» می نامد، متکی است. نقش «مدیر ارشد آمادگی» – که حقوق پایه ۵۵۵۰۰۰ دلار بعلاوه سهام در شرکت دریافت می کند – گسترش این برنامه و اطمینان از این خواهد بود که «استاندارد های امنیتی بر اساس تکامل قابلیت های سیستم تکامل می یابند.»
این انتصاب در حالی صورت می گیرد که صنعت فناوری بدنبال ایجاد تعادل بین نوآوری سریع و ملاحظات اخلاقی است. آلتمن با اذعان با سختی این کار اظهار داشت: «این ها سوالات پیچیده ای هستند، سابقه تاریخی ندارند و خیلی از راهکارهای پیشنهادی خطرات پیشبینی نشده ای را به همراه دارند.»
منبع: ایندیپندنت
حرف آخر اینکه در حالی که برخی آن را به اغراق در مورد خطرات فناوری هایش برای اهداف بازاریابی متهم می کنند، گزارش های دیگر نگرانی های مشروعی را مطرح می کنند که از نیاز به این سمت پشتیبانی می کنند.
همچون برجسته ترین این نگرانی های مستند عبارتند از:
• اشخاصی که گرفتار پریشانی عاطفی هستند برای حمایت روانی به ChatGPT رجوع می کنند، و این احتمال وجود دارد که پاسخ های خودکار به جای حل مشکلات سلامت روان، آنها را تشدید کنند.
• قابلیت های مدل های زبانی در امنیت سایبری به حدی تکامل یافته است که می توانند لطمه پذیری های حیاتی در سیستم های کامپیوتری را تشخیص دهند.
آلتمن بوسیله پلتفرم X در این مورد اظهار داشت: ما در سال ۲۰۲۵ نگاهی اجمالی به تاثیر مدلها بر سلامت روان داشتیم و هم اکنون شاهد رسیدن این مدلها به سطح بالایی از پیچیدگی در عرصه امنیت کامپیوتر هستیم. ما وارد مرحله ای می شویم که نیاز به درک دقیق تری از چگونگی سوءاستفاده از این قابلیت ها و چگونگی کاهش معایب آنها در عین حفظ مزایای عظیم آنها دارد.
منبع: خط رند ۹۱۲








