• لازم به ذکر هست کلیه مطالب قرار داده شده در تالار ( اخبار و حقوق) و چه در مواردی که در تالار (دانلود نرم افزار های کامپیوتر) از دیگر منابع بوده و کاربران یک رمان جهت راحتی دیگر افراد موجود در انجمن اقدام به قرار دادن اخبار و نرم افزار نموده اند و اگر شما صاحب امتیاز این نرم افزار هستید کافی هست با ما تماس بگیرید

معرفی هوش مصنوعی چطور کار می‌کند؟ طرز کار مدل‌های زبانی بزرگ به زبان ساده

  • نویسنده موضوع نویسنده موضوع MOON ୨ৎ
  • تاریخ شروع تاریخ شروع
  • پاسخ‌ها پاسخ‌ها 19
  • بازدیدها بازدیدها 20
  • کاربران تگ شده هیچ

MOON ୨ৎ

هنرمند انجمن
سطح
27
 
تاریخ ثبت‌نام
11/1/23
ارسالی‌ها
5,900
پسندها
15,302
امتیازها
58,173
مدال‌ها
31
  • نویسنده موضوع
  • #1
ده‌ها میلیون نفر در دنیا که احتمالا شما هم یکی از آن‌ها باشید، هوش مصنوعی را امتحان کرده‌اند؛ اما آیا می‌دانید این فناوری دقیقا چطور کار می‌کند؟
پاییز سال ۲۰۲۲، هنگامی‌که ChatGPT معرفی شد، دنیایی فراتر از صنعت فناوری را شگفت‌زده کرد. محققان یادگیری ماشین از چندین سال قبل درحال تست مدل‌های زبانی بزرگ (LLM) بودند، ولی عموم مردم توجه زیادی به این موضوع نداشتند و نمی‌دانستند این مدل‌ها چقدر قدرتمند شده‌اند. این روزها تقریبا همه‌‌ی مردم خبرهای هوش‌ مصنوعی مولد، چت‌بات‌های AI و مدل‌های پشت آن‌ها را شنیده‌اند و ده‌ها میلیون نفر که احتمالا شما هم یکی از آن‌ها باشید، این ابزار را امتحان کرده‌اند؛ بااین‌حال، اغلب ما نمی‌دانیم مدل‌های زبانی بزرگ چگونه کار می‌کنند.

به احتمال زیاد شنیده‌اید که...
لطفا برای مشاهده کامل مطالب در انجمن ثبت نام کنید.
 
امضا : MOON ୨ৎ

MOON ୨ৎ

هنرمند انجمن
سطح
27
 
تاریخ ثبت‌نام
11/1/23
ارسالی‌ها
5,900
پسندها
15,302
امتیازها
58,173
مدال‌ها
31
  • نویسنده موضوع
  • #2
بردارهای کلمه (Word Vectors)

برای اینکه بفهمیم مدل‌های زبانی چطور کار می‌کنند، ابتدا باید ببینیم که چگونه کلمات را نشان می‌دهند. ما انسان‌ها برای نوشتن هر کلمه، از دنباله‌ی حروف استفاده می‌کنیم؛ مانند C-A-T برای واژه Cat. اما مدل‌های زبانی همین کار را با استفاده از یک فهرست طولانی از اعداد به نام «بردار کلمه» انجام می‌دهند. بردار کلمه Cat را می‌توان به این صورت نشان داد:

[۰٫۰۰۷۴, ۰٫۰۰۳۰, ۰٫۰۱۰۵-, ۰٫۰۷۴۲, ۰٫۰۷۶۵, ۰٫۰۰۱۱-, ۰٫۰۲۶۵, ۰٫۰۱۰۶, ۰٫۰۱۹۱, ۰٫۰۰۳۸, ۰٫۰۴۶۸-, ۰٫۰۲۱۲- , ۰٫۰۰۹۱, ۰٫۰۰۳۰, ۰٫۰۵۶۳-, ۰٫۰۳۹۶-, ۰٫۰۹۹۸-, ۰٫۰۷۹۶-,..., ۰٫۰۰۰۲]

چرا از چنین فهرست عجیبی استفاده می‌کنیم؟ بیایید به مختصات جغرافیایی چند شهر نگاه کنیم. هنگامی‌که می‌گوییم واشنگتن دی‌سی در ۳۸٫۹ درجه شمالی و ۷۷...
لطفا برای مشاهده کامل مطالب در انجمن ثبت نام کنید.
 
امضا : MOON ୨ৎ

MOON ୨ৎ

هنرمند انجمن
سطح
27
 
تاریخ ثبت‌نام
11/1/23
ارسالی‌ها
5,900
پسندها
15,302
امتیازها
58,173
مدال‌ها
31
  • نویسنده موضوع
  • #3
کلمات پیچیده‌تر از این هستند که در فضای دوبعدی نمایش داده شوند

مدل‌های زبانی رویکرد مشابهی دارند. هر بردار کلمه یک نقطه را در فضای خیالی کلمات نشان می‌دهد و کلماتی با معانی مشابه‌تر، نزدیک هم قرار می‌گیرند (به‌لحاظ فنی LLMها روی قطعاتی از کلمات به نام توکن‌ها عمل می‌کنند، اما فعلا این پیاده‌سازی را نادیده می‌گیریم). به‌عنوان‌مثال، نزدیک‌ترین کلمات به گربه در فضای برداری شامل سگ، بچه گربه و حیوان خانگی است. یکی از مزایای کلیدی بردارهای کلمات نسبت به رشته حروف، این است که اعداد عملیاتی را امکان‌پذیر می‌کنند که حروف نمی‌توانند.

اما کلمات پیچیده‌تر از آن هستند که در فضای دوبعدی نشان داده شوند. به همین دلیل مدل‌های زبانی از فضاهای برداری با صدها یا حتی هزاران بُعد استفاده می کنند...
لطفا برای مشاهده کامل مطالب در انجمن ثبت نام کنید.
 
امضا : MOON ୨ৎ

MOON ୨ৎ

هنرمند انجمن
سطح
27
 
تاریخ ثبت‌نام
11/1/23
ارسالی‌ها
5,900
پسندها
15,302
امتیازها
58,173
مدال‌ها
31
  • نویسنده موضوع
  • #4
گوگل برای ساخت شبکه عصبی، میلیون‌ها سند را از صفحات اخبار جمع‌آوری و آنالیز کرد

ازآنجایی‌که این بردارها بر مبنای روشی که انسان‌ها از کلمات استفاده می‌کنند، ساخته می‌شوند، نهایتاً بسیاری از سوگیری‌های موجود در زبان انسانی را نیز منعکس می‌کنند. برای مثال در برخی از مدل‌های برداری کلمه، «پزشک منهای مرد به‌اضافه زن» به واژه‌ی «پرستار» می‌رسد. برای کاهش سوگیری‌هایی ازاین‌دست، تحقیقات زیادی در دست اجرا است.

بااین‌حال، بردارهای کلمات نقش بسیار مهم و مفیدی در مدل‌های زبانی دارند؛ زیرا اطلاعات ظریف اما مهمی را در مورد روابط بین کلمات رمزگذاری می‌کنند. اگر یک مدل زبانی چیزی در مورد یک گربه یاد بگیرد (مثلاً گاهی‌اوقات او را به کلینیک دامپزشکی می‌برند)، احتمالاً همین موضوع در مورد یک...
لطفا برای مشاهده کامل مطالب در انجمن ثبت نام کنید.
 
امضا : MOON ୨ৎ

MOON ୨ৎ

هنرمند انجمن
سطح
27
 
تاریخ ثبت‌نام
11/1/23
ارسالی‌ها
5,900
پسندها
15,302
امتیازها
58,173
مدال‌ها
31
  • نویسنده موضوع
  • #5
معنی کلمات به زمینه بحث بستگی دارد

یک طرح ساده‌ از بردار کلمات، واقعیت مهمی را در مورد زبان‌های طبیعی نشان نمی‌دهد: اینکه کلمات غالباً معانی متعددی دارند. به دو جمله‌ی زیر توجه کنید:

جان یک «مجله» را برداشت.
سوزان برای یک «مجله» کار می‌کند.
اینجا معنای واژه‌ی «مجله» با هم مرتبط‌اند، ولی تفاوت ظریفی بین آن‌ها وجود دارد. جان یک مجله فیزیکی را برمی‌دارد، درحالی‌که سوزان برای سازمانی کار می‌کند که مجلات فیزیکی منتشر می‌کند. در مقابل، واژه‌ای مانند گُل می‌تواند معنای کاملاً متفاوتی داشته باشد: گل رز یا گل فوتبال.

مدل‌های زبانی بزرگ مانند GPT-4 که ChatGPT مبتنی‌بر آن توسعه یافته، می‌توانند یک کلمه‌ی مشابه با بردارهای مختلف را بسته به زمینه‌ای که آن کلمه در آن ظاهر می‌شود، نشان دهند...
لطفا برای مشاهده کامل مطالب در انجمن ثبت نام کنید.
 
امضا : MOON ୨ৎ

MOON ୨ৎ

هنرمند انجمن
سطح
27
 
تاریخ ثبت‌نام
11/1/23
ارسالی‌ها
5,900
پسندها
15,302
امتیازها
58,173
مدال‌ها
31
  • نویسنده موضوع
  • #6
تبدیل بردارهای کلمه به پیش‌بینی کلمات

مدل‌های زبانی GPT-3، GPT-4 یا سایر مدل‌های زبانی که پشت چت‌بات‌های هوش مصنوعی قرار دارند، در ده‌‌ها لایه سازمان‌دهی شده‌اند. هر لایه دنباله‌ای از بردارها را به عنوان ورودی می‌گیرد (یک بردار برای هر کلمه در متن ورودی) و اطلاعاتی را برای کمک به روشن‌شدن معنای آن کلمه و پیش‌بینی بهتر کلمه بعدی اضافه می‌کند. بیایید با یک مثال ساده شروع کنیم:

1775993176530.webp

ترنسفورمرها و مراحل تحلیل جملات
هر لایه از یک LLM یک ترنسفورمر است: یک معماری شبکه عصبی که اولین بار در سال ۲۰۱۷ توسط گوگل در مقاله‌ای برجسته معرفی شد.

ورودی مدل که در تصویر بالا مشاهده می‌کنید، یک جمله نسبی و ناتمام است: « John wants his bank to cash...
لطفا برای مشاهده کامل مطالب در انجمن ثبت نام کنید.
 
امضا : MOON ୨ৎ

MOON ୨ৎ

هنرمند انجمن
سطح
27
 
تاریخ ثبت‌نام
11/1/23
ارسالی‌ها
5,900
پسندها
15,302
امتیازها
58,173
مدال‌ها
31
  • نویسنده موضوع
  • #7
بردارهای کلمات راه منعطفی برای مدل‌های زبانی فراهم می‌کنند تا معنای واژه‌ها را در هر متن خاص متوجه شوند

ترنسفورمر دوم دو نکته‌ی دیگر از تم جمله را اضافه می‌کند: نخست آنکه روشن می‌کند «bank» به یک موسسه‌ی مالی اشاره دارد و دوم؛ «his» ضمیری است که به John اشاره دارد. حالا ترنسفورمر دوم مجموعه‌ای از بردارهای حالت پنهان را تولید می‌کند که تمام چیزهایی را که مدل زبانی تا این لحظه یادگرفته، منعکس می‌کنند.

تصویر بالا یک LLM کاملاً فرضی را نشان می‌دهد. LLMهای واقعی مسلما لایه‌های بیشتری را شامل می‌شوند؛ برای مثال، ترنسفورمر قدرتمندترین نسخه‌ی GPT-3 دارای ۹۶ لایه است.

تحقیقات نشان می‌دهد که چند لایه‌ی اول ترنسفورمر روی درک ترکیب یا سینتکس جمله و رفع ابهاماتی که پیشتر گفتیم، متمرکزند...
لطفا برای مشاهده کامل مطالب در انجمن ثبت نام کنید.
 
امضا : MOON ୨ৎ

MOON ୨ৎ

هنرمند انجمن
سطح
27
 
تاریخ ثبت‌نام
11/1/23
ارسالی‌ها
5,900
پسندها
15,302
امتیازها
58,173
مدال‌ها
31
  • نویسنده موضوع
  • #8
فرایند کار ترنسفورمر

حالا بیایید در مورد آنچه داخل هر ترنسفورمر اتفاق می‌افتد، صحبت کنیم. ترنسفورمر از یک فرایند دو مرحله‌ای برای به‌روزرسانی حالت پنهان هرکلمه‌ای که از مسیر ورودی دریافت می‌شود، استفاده می‌کند.

در مرحله توجه (Attention) هر کلمه به اطراف خود نگاه می‌کند و اطلاعاتش را با کلماتی که زمینه و تم مرتبطی دارند، به اشتراک می‌گذارد.
در مرحله پیش‌خور (Feed-Forward) هر کلمه در مورد اطلاعات جمع‌آوری شده در مراحل قبلی «فکر می‌کند» و سعی می‌کند کلمه بعدی را پیش‌بینی کند.
البته این شبکه است که مراحل فوق را انجام می‌دهد، نه تک‌تک کلمات. ما برای ساده‌سازی مسائل را به این شکل توضیح می‌دهیم تا تأکید کنیم که ترنسفورمرها کلمات را به جای کل جملات یا عبارات، به‌عنوان واحد اصلی...
لطفا برای مشاهده کامل مطالب در انجمن ثبت نام کنید.
 
امضا : MOON ୨ৎ

MOON ୨ৎ

هنرمند انجمن
سطح
27
 
تاریخ ثبت‌نام
11/1/23
ارسالی‌ها
5,900
پسندها
15,302
امتیازها
58,173
مدال‌ها
31
  • نویسنده موضوع
  • #9
ترنسفورمر از یک فرایند دو مرحله‌ای برای به‌روزرسانی حالت پنهان هر کلمه استفاده می‌کند

این رویکرد LLMها را قادر می سازد تا از قدرت پردازش موازی عظیم پردازنده‌های گرافیکی مدرن، بهره‌ی کامل ببرند. به‌علاوه از این طریق LLMها می‌توانند در سطح متن‌هایی با هزاران کلمه وسعت پیدا کنند و مقیاس‌پذیر شوند. این دو حوزه دقیقا همان چالش‌هایی هستند که بر سر راه مدل‌های زبانی قدیمی وجود داشت.

شما می‌توانید مکانیزم توجه را به‌عنوان یک سرویس همتاگزینی کلمات درنظر بگیرید. هر کلمه یک چک‌لیست به نام بردار پرس‌وجو (Query Vector) ترتیب می‌دهد که درآن ویژگی‌های کلمات موردنظر را توصیف می‌کند. همچنین یک چک‌لیست دیگر هم با نام بردار کلیدی (Key Vector) آماده می‌کند که درآن ویژگی‌های خود را شرح می‌دهد...
لطفا برای مشاهده کامل مطالب در انجمن ثبت نام کنید.
 
امضا : MOON ୨ৎ

MOON ୨ৎ

هنرمند انجمن
سطح
27
 
تاریخ ثبت‌نام
11/1/23
ارسالی‌ها
5,900
پسندها
15,302
امتیازها
58,173
مدال‌ها
31
  • نویسنده موضوع
  • #10
مکانیزم توجه؛ یک مثال در دنیای واقعی

در سال ۲۰۲۲، محققان روی نتایج یکی از پیش‌بینی‌های GPT-2 دقیق شدند. ماجرا از جایی شروع شد که این مدل زبانی جمله‌ی «-When Mary and John went to the store, John gave a drink to» را با واژه‌ی Mary کامل کرد. محققان متوجه شدند که سه نوع سر توجه در این پیش‌بینی نقش داشتند:

گروه اول سرهایی بودند که اطلاعات را از بردار Mary به بردار نهایی کپی می‌کردند. بردار نهایی بردار آخرین واژه‌ی سمت راست است که به کمک آن کلمه‌ی بعدی پیش‌بینی می‌شود (اینجا واژه‌ی to)
گروه دوم سرهایی بودند که بردار دوم کلمه‌ی John را بلاک می‌کردند و مانع از کپی شدن اطلاعات آن روی بردار نهایی می‌شدند.
گروه سوم سرهایی بودند که بردارهای واژه‌ی John را به‌عنوان اطلاعات تکراری تشخیص...
لطفا برای مشاهده کامل مطالب در انجمن ثبت نام کنید.
 
امضا : MOON ୨ৎ
عقب
بالا