برنامه نویسی کودکان و نوجوانان

هوش مصنوعی برای انجام تکالیف

انیمیشنی که یک شاهین و یک دلفین معمولی را هوش مصنوعی برای انجام تکالیف  در یک جعبه نشان می دهد. متن پایین سمت راست می گوید: "سریع ترین پستاندار دریایی ???" و به شاهین اشاره می کند. نوشتار پایین سمت راست، روی تصویر دلفین قرار گرفته است، «ERROR» را می‌خواند و چشمک می‌زند.

ChatGPT و ابزارهایی مانند آن گاهی اوقات چیزها را بسیار اشتباه می کنند، بنابراین مهم است که به آنها به عنوان منابع اولیه اطلاعات اعتماد نکنید.

در زیر کاپوت

اگر بدانید که چگونه کار می کند، اشتباهات ChatGPT منطقی تر است. «دلیل نیست. ایده ای ندارد امیلی ام. بندر توضیح می‌دهد که افکار ندارد. او یک زبان شناس محاسباتی است که در دانشگاه واشنگتن در سیاتل کار می کند. ChatGPT ممکن است بسیار شبیه یک شخص به نظر برسد، اما این یکی نیست. این یک مدل هوش مصنوعی است که با استفاده از چندین نوع یادگیری  هوش مصنوعی برای انجام تکالیف ماشینی توسعه یافته است.

نوع اولیه یک مدل زبان بزرگ است. این نوع مدل یاد می گیرد که پیش بینی کند چه کلماتی در یک جمله یا عبارت قرار می گیرند. این کار را با چرخاندن حجم وسیعی از متن انجام می دهد. کلمات و عبارات را در یک نقشه سه بعدی قرار می دهد که نشان دهنده روابط آنها با یکدیگر است. کلماتی که تمایل دارند با هم ظاهر شوند، مانند کره بادام زمینی و ژله، در این نقشه به هم نزدیکتر می شوند.

یادگیری ماشینی شامل یادگیری عمیق و شبکه های عصبی است

قبل از ChatGPT، OpenAI GPT3 را ساخته بود. این مدل زبانی بسیار بزرگ در سال 2020 منتشر شد. این مدل زبان بر روی متنی که حاوی حدود 300 میلیارد کلمه بود آموزش دیده بود. آن متن از اینترنت و دایره المعارف ها آمده است. ساشا لوچونی می‌گوید که این شامل متن‌های دیالوگ، مقاله، امتحان و بسیاری موارد دیگر نیز بود. او  هوش مصنوعی برای انجام تکالیف یک محقق در شرکت HuggingFace در مونترال، کانادا است. این شرکت ابزارهای هوش مصنوعی می‌سازد.

OpenAI بر GPT3 برای ایجاد GPT3.5 بهبود یافته است. این بار OpenAI نوع جدیدی از یادگیری ماشینی را اضافه کرد. به عنوان "یادگیری تقویتی با بازخورد انسانی" شناخته می شود. این بدان معناست که مردم ایرانیان سایبر پاسخ‌های هوش مصنوعی را بررسی کردند. GPT3.5 یاد گرفت که در آینده از این نوع پاسخ ها بیشتر بدهد. همچنین یاد گرفت که واکنش های آسیب زا، جانبدارانه یا نامناسب ایجاد نکند. GPT3.5 اساسا برای مردم خوشایندتر شد.عکسی از سلب مسئولیت که هنگام باز کردن رابط ChatGPT نشان داده شده است

وقتی افراد ابزار را برای استفاده از آن باز می کنند، یک سلب مسئولیت محدودیت های ChatGPT را بیان می کند. از جمله: ممکن است گهگاه اطلاعات نادرست، مضر یا مغرضانه تولید کند. متأسفانه، همه کاربران این هشدار را نمی‌خوانند یا به آن توجه نمی‌کنند.

CHATGPT

در طول توسعه ChatGPT، OpenAI قوانین هوش مصنوعی برای انجام تکالیف  ایمنی بیشتری را به مدل اضافه کرد. در نتیجه، ربات چت از صحبت در مورد برخی مسائل یا اطلاعات حساس خودداری می کند. اما این مسئله دیگری را نیز مطرح می کند: مقادیر چه کسی در آن برنامه ریزی می شود ربات، از جمله اینکه در مورد چه چیزی مجاز است - یا مجاز نیست - صحبت کند؟

OpenAI جزئیات دقیقی درباره نحوه توسعه و آموزش ChatGPT ارائه نمی دهد. این شرکت کد یا اطلاعات آموزشی خود را منتشر نکرده است. این لوچونی را ناامید می کند. او می‌گوید: «می‌خواهم بدانم چگونه کار می‌کند تا به بهتر شدن آن کمک کنم.

هنگامی که از OpenAI خواسته شد در مورد این داستان اظهار نظر کند، بیانیه ای از یک سخنگوی ناشناس ارائه کرد. در بیانیه آمده است: «ما ChatGPT را به عنوان پیش‌نمایش تحقیقاتی برای یادگیری از استفاده در دنیای واقعی در دسترس قرار دادیم، که معتقدیم بخش مهمی از توسعه و استقرار سیستم‌های هوش مصنوعی توانمند و ایمن است». ما دائماً بازخوردها هوش مصنوعی برای انجام تکالیف  و درس‌های آموخته‌شده را با هم ترکیب می‌کنیم.» در واقع، برخی از آزمایش‌کنندگان اولیه، ربات را مجبور کردند تا چیزهای مغرضانه‌ای درباره نژاد و جنسیت بگوید. OpenAI به سرعت ابزار را وصله کرد. دیگر به همان روش پاسخ نمی دهد.

[ بازدید : 16 ]

[ يکشنبه 11 تير 1402 ] 14:20 ] [ علیرضا خانی ]

[ ]

ساخت وبلاگ
اخبار فیلم و سریال مهاجرت به کانادا از طریق کار بوتاکس مجله گويا آی‌ تی مجله مایکت
بستن تبلیغات [x]