زیرساخت های یادگیری ماشینی با کارایی بالا و کم هزینه، نوآوری را در فضای ابری سرعت می بخشد


هوش مصنوعی و یادگیری ماشین (AI و ML) فناوری‌های کلیدی هستند که به سازمان‌ها کمک می‌کنند تا راه‌های جدیدی برای افزایش فروش، کاهش هزینه‌ها، ساده‌سازی فرآیندهای کسب‌وکار و درک بهتر مشتریان خود ایجاد کنند. AWS به مشتریان کمک می‌کند تا با ارائه محاسبات قدرتمند، شبکه‌های پرسرعت و گزینه‌های ذخیره‌سازی با کارایی بالا مقیاس‌پذیر برای هر پروژه یادگیری ماشینی، سرعت پذیرش AI/ML خود را افزایش دهند. این امر مانع ورود سازمان‌هایی را که می‌خواهند از ابر برای مقیاس‌بندی برنامه‌های ML خود استفاده کنند، کاهش می‌دهد.

توسعه دهندگان و دانشمندان داده مرزهای فناوری را پیش می برند و به طور فزاینده ای از یادگیری عمیق استفاده می کنند، نوعی یادگیری ماشینی بر اساس الگوریتم های شبکه عصبی. این مدل‌های یادگیری عمیق بزرگ‌تر و پیچیده‌تر هستند که منجر به افزایش هزینه اجرای زیرساخت‌های اساسی برای آموزش و استقرار این مدل‌ها می‌شود.

برای اینکه مشتریان بتوانند تحول AI/ML خود را تسریع بخشند، AWS تراشه های یادگیری ماشینی با کارایی بالا و کم هزینه تولید می کند. AWS Inferentia اولین تراشه یادگیری ماشینی است که از پایه توسط AWS برای استنتاج یادگیری ماشینی با کمترین هزینه در فضای ابری ساخته شده است. در واقع، آمازون EC2 Inf1 که توسط Infertia طراحی شده است، 2.3 برابر عملکرد بالاتری نسبت به نمونه‌های EC2 مبتنی بر GPU نسل فعلی و تا 70 درصد هزینه کمتر برای تخمین یادگیری ماشین ارائه می‌دهد. AWS Trainium دومین تراشه یادگیری ماشینی AWS با هدف آموزش مدل‌های یادگیری عمیق است و در پایان سال 2021 در دسترس خواهد بود.

مشتریان در سراسر صنایع، برنامه های کاربردی ML خود را در Infertia در تولید به کار برده اند و شاهد بهبود عملکرد و صرفه جویی قابل توجهی در هزینه بوده اند. به عنوان مثال، پلت فرم پشتیبانی مشتری AirBnB تجارب خدمات هوشمند، مقیاس پذیر و استثنایی را به جامعه میلیون ها میزبان و مهمان خود در سراسر جهان ارائه می دهد. از یک نمونه EC2 Inf1 مبتنی بر Inferentia برای استقرار مدل پردازش زبان طبیعی (NLP) استفاده می‌کند که از چت‌بات‌های آن پشتیبانی می‌کند. این منجر به بهبود 2 برابری در عملکرد خارج از جعبه در مقایسه با نمونه های مبتنی بر GPU شد.

با این نوآوری‌ها در سیلیکون، AWS مشتریان را قادر می‌سازد تا راحت‌تر مدل‌های یادگیری عمیق خود را در تولید با هزینه‌ی قابل‌توجهی کمتر با عملکرد و توان عملیاتی بالاتر آموزش داده و اجرا کنند.

یادگیری ماشین تغییر سرعت در زیرساخت های مبتنی بر ابر را به چالش می کشد

یادگیری ماشینی یک فرآیند تکراری است که به تیم‌ها نیاز دارد تا به سرعت برنامه‌ها را بسازند، آموزش دهند، و برنامه‌ها را بکار ببرند، همچنین مرتباً آموزش دهند، بازآموزی کنند و آزمایش کنند تا دقت پیش‌بینی مدل را افزایش دهند. سازمان‌ها ضمن استقرار مدل‌های آموزش‌دیده در برنامه‌های تجاری خود، باید برنامه‌های کاربردی خود را برای ارائه خدمات به کاربران جدید در سراسر جهان افزایش دهند. آنها باید بتوانند چندین درخواست دریافتی را به طور همزمان با تاخیر تقریباً واقعی مدیریت کنند تا از تجربه کاربری بهتر اطمینان حاصل کنند.

موارد استفاده نوظهور مانند تشخیص اشیا، پردازش زبان طبیعی (NLP)، طبقه‌بندی تصویر، هوش مصنوعی محاوره‌ای و داده‌های سری زمانی به فناوری یادگیری عمیق متکی هستند. اندازه و پیچیدگی مدل‌های یادگیری عمیق به سرعت در حال افزایش است و تنها در چند سال از میلیون‌ها پارامتر به میلیاردها می‌رسد.

آموزش و استقرار این مدل های پیچیده و پیچیده به هزینه های زیرساختی قابل توجهی تبدیل می شود. هزینه‌ها به سرعت می‌توانند گلوله برفی داشته باشند که می‌تواند به شدت بزرگ شود زیرا سازمان‌ها برنامه‌های کاربردی خود را برای ارائه تجربیات بلادرنگ به کاربران و مشتریان خود مقیاس می‌دهند.

اینجاست که خدمات زیرساخت یادگیری ماشین مبتنی بر ابر می‌توانند کمک کنند. رایانش ابری دسترسی درخواستی به شبکه‌های با کارایی بالا و ذخیره‌سازی کلان داده را فراهم می‌کند، که به‌طور یکپارچه با عملیات ML و خدمات هوش مصنوعی پیشرفته ترکیب می‌شود تا سازمان‌ها را قادر می‌سازد تا به سرعت شروع کنند و ابتکارات AI/ML خود را افزایش دهند.

چگونه AWS به مشتریان کمک می کند تا تحول AI/ML خود را تسریع کنند

هدف AWS Inferentia و AWS Trainium دموکراتیک کردن یادگیری ماشین و در دسترس ساختن آن برای توسعه دهندگان صرف نظر از تجربه و اندازه سازمان است. طراحی Inferentia برای عملکرد بالا، توان عملیاتی و تأخیر کم بهینه شده است و آن را برای استقرار استنتاج ML در مقیاس بزرگ ایده آل می کند.

هر تراشه AWS Infertia از چهار هسته عصبی تشکیل شده است که یک موتور ضرب ماتریس آرایه سیستولیک با کارایی بالا را پیاده سازی می کند که تا حد زیادی وظایف یادگیری عمیق معمولی مانند کانولوشن ها و ترانسفورماتورها را تسریع می کند. نورونکورها همچنین به یک کش روی تراشه بزرگ مجهز هستند که به کاهش دسترسی به حافظه خارجی، کاهش تأخیر و افزایش توان کمک می‌کند.

کیت توسعه نرم افزار برای AWS Neuron، Inferentia، به طور بومی از چارچوب های اصلی ML مانند TensorFlow و PyTorch پشتیبانی می کند. توسعه دهندگان می توانند به استفاده از چارچوب ها و ابزارهای توسعه چرخه حیاتی که می شناسند و دوست دارند ادامه دهند. در مورد بسیاری از مدل های آموزش دیده آنها، می توان آنها را بدون هیچ گونه تغییر کد برنامه اضافی کامپایل و در Infertia مستقر کرد و تنها یک خط کد را تغییر داد.

نتیجه یک استقرار تخمینی با کارایی بالا است که می تواند به راحتی مقیاس شود و در عین حال هزینه ها را تحت کنترل نگه دارد.

Sprinklr، یک شرکت نرم‌افزار به‌عنوان سرویس، دارای یک پلت‌فرم مدیریت تجربه مشتری یکپارچه مبتنی بر هوش مصنوعی است که شرکت‌ها را قادر می‌سازد تا بازخورد مشتری را در زمان واقعی در چندین کانال جمع‌آوری کرده و آن را به بینش‌های عملی تبدیل کنند. این منجر به حل مشکلات پیشگیرانه، توسعه محصول پیشرفته، بازاریابی محتوای بهتر و خدمات بهتر به مشتریان می شود. Sprinklr از Infertia برای استقرار NLP و برخی از مدل‌های بینایی کامپیوتری خود استفاده کرد و شاهد بهبود عملکرد قابل توجهی بود.

بسیاری از سرویس های آمازون نیز مدل های یادگیری ماشینی خود را بر روی Inferentia مستقر می کنند.

Amazon Prime Video از مدل‌های ML بینایی کامپیوتری برای تجزیه و تحلیل کیفیت ویدیوی رویدادهای زنده استفاده می‌کند تا از تجربه بهینه بیننده برای اعضای Prime Video اطمینان حاصل کند. مدل طبقه‌بندی تصویر ML خود را روی نمونه‌های EC2 Inf1 به کار گرفت و شاهد بهبود عملکرد 4 برابری و تا 40 درصد کاهش هزینه در مقایسه با نمونه‌های مبتنی بر GPU بود.

مثال دیگر هوش مبتنی بر هوش مصنوعی و ML آمازون الکسا است که توسط خدمات وب آمازون پشتیبانی می شود که امروزه در بیش از 100 میلیون دستگاه در دسترس است. الکسا به مشتریان قول می دهد که همیشه هوشمندتر، گفتگوی تر، فعال تر و حتی لذت بخش تر خواهد بود. تحقق این وعده مستلزم بهبود مستمر در زمان پاسخگویی و هزینه‌های زیرساخت یادگیری ماشین است. با استقرار مدل متن به گفتار ML الکسا در نمونه های Inf1، تأخیر تخمین را تا 25 درصد و هزینه به ازای هر تخمین را 30 درصد کاهش می دهد تا تجربه خدمات را برای میلیون ها مشتری که هر ماه از الکسا استفاده می کنند، افزایش دهد. .

کشف قابلیت‌های جدید یادگیری ماشین در فضای ابری

از آنجایی که شرکت‌ها با فعال کردن بهترین محصولات و خدمات دیجیتالی برای اثبات آینده کسب‌وکار خود رقابت می‌کنند، هیچ سازمانی نمی‌تواند در به کارگیری مدل‌های پیچیده یادگیری ماشینی برای کمک به نوآوری در تجربیات مشتری خود عقب بماند. در طول چند سال گذشته، کاربرد یادگیری ماشینی در موارد مختلف استفاده بسیار زیاد شده است، از شخصی‌سازی و پیش‌بینی خرابی گرفته تا کشف تقلب و پیش‌بینی زنجیره تامین.

خوشبختانه، زیرساخت یادگیری ماشین در فضای ابری در حال کشف قابلیت‌های جدیدی است که قبلاً امکان‌پذیر نبود، و آن را برای پزشکان غیرمتخصص بسیار قابل دسترس‌تر می‌کند. به همین دلیل است که مشتریان AWS در حال حاضر از نمونه‌های آمازون EC2 Inf1 مبتنی بر Inferentia استفاده می‌کنند تا اطلاعاتی را در پشت موتورهای توصیه و ربات‌های گفتگوی خود ارائه دهند و بینش‌های عملی را از بازخورد مشتریان به دست آورند.

با گزینه‌های زیرساخت یادگیری ماشین مبتنی بر ابر AWS مناسب برای سطوح مختلف مهارت، واضح است که هر سازمانی می‌تواند نوآوری و پذیرش مقیاس را در طول چرخه عمر یادگیری ماشین تسریع بخشد. با فراگیرتر شدن یادگیری ماشینی، سازمان‌ها اکنون می‌توانند تجربه مشتری – و روش انجام کسب و کارشان – را با زیرساخت‌های یادگیری ماشینی مبتنی بر ابری با کارایی بالا و مقرون‌به‌صرفه تغییر دهند.

درباره اینکه چگونه پلت فرم یادگیری ماشینی AWS می تواند به شرکت شما در نوآوری کمک کند بیشتر بیاموزید.

این محتوا توسط AWS تولید شده است. این توسط تحریریه MIT Technology Review نوشته نشده است.


تمامی اخبار به صورت تصادفی و رندومایز شده پس از بازنویسی رباتیک در این سایت منتشر شده و هیچ مسئولتی در قبال صحت آنها نداریم