logo logo

دنبال یه ترفند خاص می گردی که هیچ جا پیداش نمی کنی؟ یا یه برنامه فوق العاده کمیاب که کارتو راه بندازه؟ پس درست اومدی! «کمیاب آنلاین» (KamyabOnline.com) دقیقاً همون گنجینه ایه که دنبالشی. اینجا ما براتون مطالب، ترفندها و نرم افزارهایی رو جمع آوری کردیم که شاید تو کمتر جایی بتونی پیداشون کنی. از آموزش تکنیک های فناوری گرفته تا مطالب جالب و شگفت انگیز که هر روز می تونه یه چیز جدید بهت یاد بده. آماده ای برای کشف؟

پیشنهاد kamyabonline

پکیج های خبرنامه

گزارش بینش مورد اعتماد در سراسر جهان را دریافت کنید. امروز عضو شوید

خرید و فعالسازی

ایران، تهران

خیابان فاطمی

شماره تماس: 28428860 (مشاوره رایگان)

support@kamyabonline.com
آموزش ابزار تولید سامسونگ

گاف امنیتی کارمندان سامسونگ

ککمیاب آنلاین: کمیاب آنلاین: سه کارمند سامسونگ در زمان استفاده از ربات چت هوش مصنوعی چت جی پی تی، ناخواسته اطلاعات محرمانه این شرکت را افشا کردند.

گاف امنیتی کارمندان سامسونگ


به گزارش کمیاب آنلاین به نقل از ایسنا، چت جی پی تی ممکنست در ظاهر ابزاری به نظر برسد که می تواند برای مجموعه ای از وظایف کاری مفید باشد. اما پیش از اینکه از این ربات چت بخواهید یادداشت های مهم را خلاصه سازی کند یا کار شما را از نظر خطا بررسی کند، بهتر است به یاد داشته باشید که هر مطلبی که با چت جی پی تی به اشتراک می گذارید، می تواند برای آموزش سیستم استفاده گردد و شاید حتی در پاسخ هایش به سایر کاربران ظاهر شود. این موضوعی است که احتمالاً برخی از کارمندان سامسونگ باید پیش از اینکه اطلاعات محرمانه خودرا با این ابزار هوش مصنوعی به اشتراک گذارند، اطلاع می داشتند.

طبق گزارش اکونومیک کوریا، اندکی بعد از اینکه واحد نیمه رسانای سامسونگ به مهندسان اجازه داد از چت جی پی تی استفاده کنند، کارکنان حداقل در سه مورد، اطلاعات محرمانه را در اختیار این ابزار قرار دادند. یکی از کارمندان ظاهرا از چت جی پی تی خواست کد منبع پایگاه داده حساس را برای خطا چک کند، کارمند دیگری بهینه سازی کد را درخواست نمود و سومی، یک جلسه ضبط شده را به چت جی پی تی ارسال کرد و از این ابزار خواست جزییات این جلسه را تولید نماید.

گزارش ها نشان میدهد سامسونگ بعد از اطلاع از اشتباه های امنیتی، با محدود کردن میزان استفاده کارمندان از چت جی پی تی، میزان خطاهای آینده را محدود کند. همین طور گفته می شود که این شرکت سرگرم تحقیق از سه کارمند مورد بحث و ساخت ربات چت خود برای جلوگیری از وقوع خطاهای امنیتی مشابه است.

بر اساس گزارش وب سایت انگجت، در سیاست داده چت جی پی تی تاکید گردیده است که از درخواست های کاربران برای آموزش مدلهای خود استفاده می نماید مگر اینکه کاربران به صراحت با چنین چیزی مخالفت کنند. شرکت OpenAI که سازنده چت جی پی تی است، از کاربران خواسته است اطلاعات محرمانه خودرا در مکالمات با چت جی پی تی به اشتراک نگذارند، برای اینکه قادر نیست درخواست های خاصی را از تاریخچه شما حذف کند. تنها راه خلاصی از اطلاعات قابل شناسایی شخصی در چت جی پی تی، حذف حساب کاربری است که این پروسه ممکنست حداکثر چهار هفته بطول بیانجامد.







منبع:

avatar

کمیاب

روزنامه نگار سایت کمیاب آنلاین
مشاهده اخبار

ما اینجا هر روز تلاش می کنیم تا بهترین و جذاب ترین محتواها رو براتون آماده کنیم. فرقی نمی کنه یه گیک کامپیوتر باشی یا فقط دوست داری چیزای باحال یاد بگیری، تو کمیاب آنلاین همیشه یه چیزی پیدا می کنی که برات تازگی داشته باشه. پس اگه از چیزای تکراری خسته شدی و دنبال یه منبع پر از شگفتی و اطلاعات خاص می گردی، همین الان یه سر به KamyabOnline.com بزن و اجازه بده ما تو رو شگفت زده کنیم!

1.7 / 5
726
این مطلب را می پسندید؟ (1) (2)

دیدگاه ها

ثبت دیدگاه

آدرس ایمیل شما منتشر نخواهد شد. فیلدهای الزامی علامت گذاری شده اند *
= ۵ بعلاوه ۱

آخرین مطالب مرتبط

اشتراک گذاری

دسته بندی ها
اجرا
822
آموزش
649
تولید
569
بازار
499
اینترنت
464

دوستان کمیاب آنلاین