الگوریتم گرادیان نزولی برای چند متغیر Gradient Descent for Multiple Variables – قسمت نوزدهم دوره یادگیری ماشین دانشگاه استنفورد

الگوریتم گرادیان نزولی برای چند متغیر Gradient Descent for Multiple Variables – قسمت نوزدهم دوره یادگیری ماشین دانشگاه استنفورد

در این جلسه از سری آموزش‌های یادگیری ماشین دانشگاه استنفورد، شکل جدید الگوریتم گرادیان نزولی برای چند متغیر را معرفی می‌کنیم. در ادامه گرادیان نزولی را برای رگرسیون خطی چند متغیره به کار می‌گیریم.

مروری بر آنچه آموختیم

در جلسه گذشته با رگرسیون خطی چند متغیره آشنا شدیم. برداری برای متغیرها و برداری دیگر برای پارامترها تعریف کردیم. حال زمان آن رسیده با کمک الگوریتم گرادیان نزولی برای چند متغیر، مقدار پارامترها را مشخص کنیم. این شکل نهایی تابع فرضیه ما است:

\(\Large h_{\theta}(x) = \theta^{T} x =  \theta_{0} x_{0} + \theta_{1}x_{1} + \theta_{2}x_{2} + … + \theta_{n}x_{n}  \)

همانطور که به یاد دارید در این معادله \(\Large  x_{0} = 1  \) است. پارامترهای مدنظر نیز به شرح زیر هستند:

\(\Large \theta_{0} , \theta_{1}, … ,\theta_{n}\)

در جلسه پیش برای سهولت در نشان دادن پارامترها، برداری به نام \(\Large \theta \) تعریف کردیم. بردار ما n+1 بعدی است. علاوه بر این در سری جلسات تابع هزینه با این فرم از تابع هزینه آشنا شدیم:

 \( \Large J(\theta_{0} , \theta_{1},…, \theta_{n})= \frac{1}{2m} \displaystyle \sum_{i = 1}^{m} (h_{\theta}(x^{(i)})-y^{(i)})^2 \)

در ادامه برای راحت‌تر نشان دادن تابع به جای \( \Large J(\theta_{0} , \theta_{1},…, \theta_{n}) \) از \( \Large J(\theta) \) استفاده می‌کنیم.

شکل‌های مختلف تابع هزینه با وجود چند متغیر

جهت رسیدن به الگوریتم گرادیان نزولی برای چند متغیر باید شکل تابع هزینه را مشخص کنیم. زمانی که n ویژگی مختلف داریم، تابع هزینه اینگونه است:

حتما بخوانید:  مفهوم الگوریتم گرادیان نزولی Descent Gradient Algorithm Intuition - قسمت نهم دوره یادگیری ماشین دانشگاه استنفورد

این محتوا قفل و محدود شده است. برای تهیه اشتراک و مطالعه آن عضو شوید. عضویت

فیلم جلسه الگوریتم گرادیان نزولی برای چند متغیر – قسمت ۱۹ دوره یادگیری ماشین اندرو ان جی

جمع‌بندی جلسه الگوریتم گرادیان نزولی برای چند متغیر و موضوع جلسه آینده

در این جلسه از سری آموزش‌های یادگیری ماشین دانشگاه استنفورد آموختیم چگونه از الگوریتم گرادیان نزولی برای چند متغیر استفاده کنیم. مروری بر مباحث الگوریتم گرادیان نزولی و تابع هزینه داشتیم. همچنین یافتیم هر دو  ورژن جدید و قدیمی گرادیان نزولی در ماهیت یکسان هستند.

در جلسه آینده استفاده از الگوریتم گرادیان نزولی را تمرین خواهیم کرد و چند ترفند برای افزایش کارایی آن معرفی می‌کنیم.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.

-->