هوش مصنوعی برای انجام تکالیف
انیمیشنی که یک شاهین و یک دلفین معمولی را هوش مصنوعی برای انجام تکالیف در یک جعبه نشان می دهد. متن پایین سمت راست می گوید: "سریع ترین پستاندار دریایی ???" و به شاهین اشاره می کند. نوشتار پایین سمت راست، روی تصویر دلفین قرار گرفته است، «ERROR» را میخواند و چشمک میزند.
ChatGPT و ابزارهایی مانند آن گاهی اوقات چیزها را بسیار اشتباه می کنند، بنابراین مهم است که به آنها به عنوان منابع اولیه اطلاعات اعتماد نکنید.
در زیر کاپوت
اگر بدانید که چگونه کار می کند، اشتباهات ChatGPT منطقی تر است. «دلیل نیست. ایده ای ندارد امیلی ام. بندر توضیح میدهد که افکار ندارد. او یک زبان شناس محاسباتی است که در دانشگاه واشنگتن در سیاتل کار می کند. ChatGPT ممکن است بسیار شبیه یک شخص به نظر برسد، اما این یکی نیست. این یک مدل هوش مصنوعی است که با استفاده از چندین نوع یادگیری هوش مصنوعی برای انجام تکالیف ماشینی توسعه یافته است.
نوع اولیه یک مدل زبان بزرگ است. این نوع مدل یاد می گیرد که پیش بینی کند چه کلماتی در یک جمله یا عبارت قرار می گیرند. این کار را با چرخاندن حجم وسیعی از متن انجام می دهد. کلمات و عبارات را در یک نقشه سه بعدی قرار می دهد که نشان دهنده روابط آنها با یکدیگر است. کلماتی که تمایل دارند با هم ظاهر شوند، مانند کره بادام زمینی و ژله، در این نقشه به هم نزدیکتر می شوند.
یادگیری ماشینی شامل یادگیری عمیق و شبکه های عصبی است
قبل از ChatGPT، OpenAI GPT3 را ساخته بود. این مدل زبانی بسیار بزرگ در سال 2020 منتشر شد. این مدل زبان بر روی متنی که حاوی حدود 300 میلیارد کلمه بود آموزش دیده بود. آن متن از اینترنت و دایره المعارف ها آمده است. ساشا لوچونی میگوید که این شامل متنهای دیالوگ، مقاله، امتحان و بسیاری موارد دیگر نیز بود. او هوش مصنوعی برای انجام تکالیف یک محقق در شرکت HuggingFace در مونترال، کانادا است. این شرکت ابزارهای هوش مصنوعی میسازد.
OpenAI بر GPT3 برای ایجاد GPT3.5 بهبود یافته است. این بار OpenAI نوع جدیدی از یادگیری ماشینی را اضافه کرد. به عنوان "یادگیری تقویتی با بازخورد انسانی" شناخته می شود. این بدان معناست که مردم ایرانیان سایبر پاسخهای هوش مصنوعی را بررسی کردند. GPT3.5 یاد گرفت که در آینده از این نوع پاسخ ها بیشتر بدهد. همچنین یاد گرفت که واکنش های آسیب زا، جانبدارانه یا نامناسب ایجاد نکند. GPT3.5 اساسا برای مردم خوشایندتر شد.عکسی از سلب مسئولیت که هنگام باز کردن رابط ChatGPT نشان داده شده است
وقتی افراد ابزار را برای استفاده از آن باز می کنند، یک سلب مسئولیت محدودیت های ChatGPT را بیان می کند. از جمله: ممکن است گهگاه اطلاعات نادرست، مضر یا مغرضانه تولید کند. متأسفانه، همه کاربران این هشدار را نمیخوانند یا به آن توجه نمیکنند.
CHATGPT
در طول توسعه ChatGPT، OpenAI قوانین هوش مصنوعی برای انجام تکالیف ایمنی بیشتری را به مدل اضافه کرد. در نتیجه، ربات چت از صحبت در مورد برخی مسائل یا اطلاعات حساس خودداری می کند. اما این مسئله دیگری را نیز مطرح می کند: مقادیر چه کسی در آن برنامه ریزی می شود ربات، از جمله اینکه در مورد چه چیزی مجاز است - یا مجاز نیست - صحبت کند؟
OpenAI جزئیات دقیقی درباره نحوه توسعه و آموزش ChatGPT ارائه نمی دهد. این شرکت کد یا اطلاعات آموزشی خود را منتشر نکرده است. این لوچونی را ناامید می کند. او میگوید: «میخواهم بدانم چگونه کار میکند تا به بهتر شدن آن کمک کنم.
هنگامی که از OpenAI خواسته شد در مورد این داستان اظهار نظر کند، بیانیه ای از یک سخنگوی ناشناس ارائه کرد. در بیانیه آمده است: «ما ChatGPT را به عنوان پیشنمایش تحقیقاتی برای یادگیری از استفاده در دنیای واقعی در دسترس قرار دادیم، که معتقدیم بخش مهمی از توسعه و استقرار سیستمهای هوش مصنوعی توانمند و ایمن است». ما دائماً بازخوردها هوش مصنوعی برای انجام تکالیف و درسهای آموختهشده را با هم ترکیب میکنیم.» در واقع، برخی از آزمایشکنندگان اولیه، ربات را مجبور کردند تا چیزهای مغرضانهای درباره نژاد و جنسیت بگوید. OpenAI به سرعت ابزار را وصله کرد. دیگر به همان روش پاسخ نمی دهد.
[ بازدید : 16 ][ يکشنبه 11 تير 1402 ] 14:20 ] [ علیرضا خانی ]
[ ]