مقیاس بندی ویژگی‌ها در گرادیان نزولی Feature Scaling in Gradient Descent– قسمت بیستم دوره یادگیری ماشین دانشگاه استنفورد

مقیاس بندی ویژگی‌ها در گرادیان نزولی Feature Scaling in Gradient Descent– قسمت بیستم دوره یادگیری ماشین دانشگاه استنفورد

در این جلسه از سری آموزش‌های یادگیری ماشین دانشگاه استنفورد با مقیاس بندی ویژگی‌ها در گرادیان نزولی آشنا می‌شویم. همچنین نرمال سازی داده‌ها و شروط اجرای آن را معرفی می‌کنیم.

چرا از مقیاس بندی ویژگی‌ها در گرادیان نزولی استفاده می‌کنیم؟

در جلسه قبل، الگوریتم گرادیان نزولی برای چند متغیر را تعریف کردیم. با اضافه شدن متغیر جدید محاسبات دشوارتر می‌شود. بنابراین یافتن نقاط مینیمم سخت می‌شود. اگر چند متغیر مورد نظر ما در یک مقیاس مشابه باشند، احتمال همگرایی بالا می‌رود. به عبارت دیگر، زمانی که متغیرهای ما در رنج مشابهی باشند سریعتر به نقطه مینیمم می‌رسیم. فرض کنید دو متغیر متراژ و تعداد اتاق خواب با رنج مشخص زیر داریم:

\(\Large  x_{1} = size (0-2000 {feet}^2 ) \)

\(\Large  x_{2} = bedrooms (1-5) \)

این محتوا قفل و محدود شده است. برای تهیه اشتراک و مطالعه آن عضو شوید. عضویت

فیلم مقیاس بندی ویژگی‌ها در گرادیان نزولی از جلسه بیستم یادگیری ماشین اندرو ان جی

جمع‌بندی جلسه مقیاس بندی ویژگی‌ها در گرادیان نزولی و موضوع جلسه آینده

در این جلسه از سری آموزش‌های یادگیری ماشین دانشگاه استنفورد با مقیاس بندی ویژگی‌ها در گرادیان نزولی آشنا شدیم. اکنون ک هبا مقیاس بندی آشنا شدید می‌توانید با استفاده از این ترفند گرادیان نزولی را بهتر به کار ببرید. در جلسه آینده در مورد ترفند دیگری برای افزایش سرعت گرادیان نزولی صحبت خواهیم کرد.

حتما بخوانید:  یادگیری با نظارت (Supervised learning) یا یادگیری نظارت شده چیست - قسمت دوم دوره یادگیری ماشین دانشگاه استنفورد

۲ دیدگاه در “مقیاس بندی ویژگی‌ها در گرادیان نزولی Feature Scaling in Gradient Descent– قسمت بیستم دوره یادگیری ماشین دانشگاه استنفورد

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این سایت از اکیسمت برای کاهش هرزنامه استفاده می کند. بیاموزید که چگونه اطلاعات دیدگاه های شما پردازش می‌شوند.

-->