چرا امروزه تولیدکنندگان تراشه مانند انویدیا و AMD به جای CPU، پردازنده گرافیکی برای محاسبات در یادگیری ماشینی انتخاب میکنند؟ انویدیا قبلا کنفرانسی اختصاصی در مورد صنعت بازیها برگزار میکرد. اما موضوع اصلی که در آن کنفرانسها در مورد آن بحث میشد استفاده از GPU برای فناوری یادگیری ماشین بود. این روزها GPU در Machine Learning کاربرد بسیار زیادی دارد.
GPU یا CPU؟
نه تنها انویدیا، بلکه AMD نیز خط جدیدی از پردازندههای گرافیکی با هدف یادگیری ماشین در نمایشگاه CES معرفی کرد. یادگیری ماشینی مفهومی در زمینه هوش مصنوعی برای تحقیق و ساخت تکنیکهای محاسباتی پیچیده است. این تکنولوژی اجازه میدهد تا بهطور خودکار از دادههای موجود برای حل مسائل مختلف “یادگیری ماشین مجازی” است، استفاده شود. اما چرا انویدیا و AMD برای یادگیری ماشین به استفاده از GPU میپردازد. چرا CPU را انتخاب نکردند؟ پاسخ این پرسش این است: به دلیل ماتریس آماری است.

یادگیری ماشینی در مورد حل مسائل مربوط به ریاضیات و ماتریسهای آماری است. معادلات پیچیده با فرمولهای زیاد، مقادیر زیادی از دادههای اولیه را تجزیه و تحلیل و حل میکند. سپس آنها را بهینه میکند تا پیشبینیهای دقیق و قابل اعتمادی به ما ارائه دهد. به طور کلی یادگیری ماشینی از یک ماتریس آماری واحد استفاده نمیکند. برای عملکرد بهتر، باید ماتریسهای آماری متعدد را به جای ماتریسهای منفرد ترکیب کنیم. محاسبه و ترکیب تعداد زیادی مدل بسیار پیچیده است.
مدل محاسبای GPU
معادلات بهینه شده اغلب به عنوان مدل نامیده میشوند. مدلها راهی برای شبیهسازی روابط بین دادهها و پیشبینی هستند. مشکل یادگیریماشین این است که چگونه یک مدل را بفهمیم یا یک داده را نسبت به داده دیگر درک کنیم. بنابراین مردم راهی برای پیادهسازی آنها بر روی GPU که پردازندههای گرافیکی هستند، پیدا کردهاند. در آن هر ماتریس به عنوان یک پیکسل (pixel) در نظر گرفته میشود.

محاسبات چند ماتریسی دلیل اصلی نیاز یادگیری ماشین به GPU است. از مقایسه فوق، میتوان متوجه شد سرمایهگذاری در GPU یک گام بسیار موثر در آینده محاسبات الگوریتمی پیچیده است. زیرا مشکلات فنی در محدودیت محاسباتی راحتتر از CPU حل میشوند. GPU برای انجام کارهای کوچک اما بسیار سریع طراحی شده است. در مقیاس بزرگ کارآمد است و به طور همزمان و در همان زمان انجام میشود. با پیشرفت یادگیری ماشین و نیاز به قدرت محاسباتی بیشتر، اهمیت GPU به طور فزایندهای آشکار میشود. و این نشان میدهد در آینده بیشتر از GPU در محاسبات سنگین خواهیم شنید.
Add a Comment