[ad_1]
هوش مصنوعی و یادگیری ماشین (AI و ML) فناوریهای کلیدی هستند که به سازمانها کمک میکنند تا راههای جدیدی برای افزایش فروش، کاهش هزینهها، سادهسازی فرآیندهای کسبوکار و درک بهتر مشتریان خود ایجاد کنند. AWS به مشتریان کمک میکند تا با ارائه محاسبات قدرتمند، شبکههای پرسرعت و گزینههای ذخیرهسازی با کارایی بالا مقیاسپذیر برای هر پروژه یادگیری ماشینی، سرعت پذیرش AI/ML خود را افزایش دهند. این امر مانع ورود سازمانهایی را که میخواهند از ابر برای مقیاسبندی برنامههای ML خود استفاده کنند، کاهش میدهد.
توسعه دهندگان و دانشمندان داده مرزهای فناوری را پیش می برند و به طور فزاینده ای از یادگیری عمیق استفاده می کنند، نوعی یادگیری ماشینی بر اساس الگوریتم های شبکه عصبی. این مدلهای یادگیری عمیق بزرگتر و پیچیدهتر هستند که منجر به افزایش هزینه اجرای زیرساختهای اساسی برای آموزش و استقرار این مدلها میشود.
برای اینکه مشتریان بتوانند تحول AI/ML خود را تسریع بخشند، AWS تراشه های یادگیری ماشینی با کارایی بالا و کم هزینه تولید می کند. AWS Inferentia اولین تراشه یادگیری ماشینی است که از پایه توسط AWS برای استنتاج یادگیری ماشینی با کمترین هزینه در فضای ابری ساخته شده است. در واقع، آمازون EC2 Inf1 که توسط Infertia طراحی شده است، 2.3 برابر عملکرد بالاتری نسبت به نمونههای EC2 مبتنی بر GPU نسل فعلی و تا 70 درصد هزینه کمتر برای تخمین یادگیری ماشین ارائه میدهد. AWS Trainium دومین تراشه یادگیری ماشینی AWS با هدف آموزش مدلهای یادگیری عمیق است و در پایان سال 2021 در دسترس خواهد بود.
مشتریان در سراسر صنایع، برنامه های کاربردی ML خود را در Infertia در تولید به کار برده اند و شاهد بهبود عملکرد و صرفه جویی قابل توجهی در هزینه بوده اند. به عنوان مثال، پلت فرم پشتیبانی مشتری AirBnB تجارب خدمات هوشمند، مقیاس پذیر و استثنایی را به جامعه میلیون ها میزبان و مهمان خود در سراسر جهان ارائه می دهد. از یک نمونه EC2 Inf1 مبتنی بر Inferentia برای استقرار مدل پردازش زبان طبیعی (NLP) استفاده میکند که از چتباتهای آن پشتیبانی میکند. این منجر به بهبود 2 برابری در عملکرد خارج از جعبه در مقایسه با نمونه های مبتنی بر GPU شد.
با این نوآوریها در سیلیکون، AWS مشتریان را قادر میسازد تا راحتتر مدلهای یادگیری عمیق خود را در تولید با هزینهی قابلتوجهی کمتر با عملکرد و توان عملیاتی بالاتر آموزش داده و اجرا کنند.
یادگیری ماشین تغییر سرعت در زیرساخت های مبتنی بر ابر را به چالش می کشد
یادگیری ماشینی یک فرآیند تکراری است که به تیمها نیاز دارد تا به سرعت برنامهها را بسازند، آموزش دهند، و برنامهها را بکار ببرند، همچنین مرتباً آموزش دهند، بازآموزی کنند و آزمایش کنند تا دقت پیشبینی مدل را افزایش دهند. سازمانها ضمن استقرار مدلهای آموزشدیده در برنامههای تجاری خود، باید برنامههای کاربردی خود را برای ارائه خدمات به کاربران جدید در سراسر جهان افزایش دهند. آنها باید بتوانند چندین درخواست دریافتی را به طور همزمان با تاخیر تقریباً واقعی مدیریت کنند تا از تجربه کاربری بهتر اطمینان حاصل کنند.
موارد استفاده نوظهور مانند تشخیص اشیا، پردازش زبان طبیعی (NLP)، طبقهبندی تصویر، هوش مصنوعی محاورهای و دادههای سری زمانی به فناوری یادگیری عمیق متکی هستند. اندازه و پیچیدگی مدلهای یادگیری عمیق به سرعت در حال افزایش است و تنها در چند سال از میلیونها پارامتر به میلیاردها میرسد.
آموزش و استقرار این مدل های پیچیده و پیچیده به هزینه های زیرساختی قابل توجهی تبدیل می شود. هزینهها به سرعت میتوانند گلوله برفی داشته باشند که میتواند به شدت بزرگ شود زیرا سازمانها برنامههای کاربردی خود را برای ارائه تجربیات بلادرنگ به کاربران و مشتریان خود مقیاس میدهند.
اینجاست که خدمات زیرساخت یادگیری ماشین مبتنی بر ابر میتوانند کمک کنند. رایانش ابری دسترسی درخواستی به شبکههای با کارایی بالا و ذخیرهسازی کلان داده را فراهم میکند، که بهطور یکپارچه با عملیات ML و خدمات هوش مصنوعی پیشرفته ترکیب میشود تا سازمانها را قادر میسازد تا به سرعت شروع کنند و ابتکارات AI/ML خود را افزایش دهند.
چگونه AWS به مشتریان کمک می کند تا تحول AI/ML خود را تسریع کنند
هدف AWS Inferentia و AWS Trainium دموکراتیک کردن یادگیری ماشین و در دسترس ساختن آن برای توسعه دهندگان صرف نظر از تجربه و اندازه سازمان است. طراحی Inferentia برای عملکرد بالا، توان عملیاتی و تأخیر کم بهینه شده است و آن را برای استقرار استنتاج ML در مقیاس بزرگ ایده آل می کند.
هر تراشه AWS Infertia از چهار هسته عصبی تشکیل شده است که یک موتور ضرب ماتریس آرایه سیستولیک با کارایی بالا را پیاده سازی می کند که تا حد زیادی وظایف یادگیری عمیق معمولی مانند کانولوشن ها و ترانسفورماتورها را تسریع می کند. نورونکورها همچنین به یک کش روی تراشه بزرگ مجهز هستند که به کاهش دسترسی به حافظه خارجی، کاهش تأخیر و افزایش توان کمک میکند.
کیت توسعه نرم افزار برای AWS Neuron، Inferentia، به طور بومی از چارچوب های اصلی ML مانند TensorFlow و PyTorch پشتیبانی می کند. توسعه دهندگان می توانند به استفاده از چارچوب ها و ابزارهای توسعه چرخه حیاتی که می شناسند و دوست دارند ادامه دهند. در مورد بسیاری از مدل های آموزش دیده آنها، می توان آنها را بدون هیچ گونه تغییر کد برنامه اضافی کامپایل و در Infertia مستقر کرد و تنها یک خط کد را تغییر داد.
نتیجه یک استقرار تخمینی با کارایی بالا است که می تواند به راحتی مقیاس شود و در عین حال هزینه ها را تحت کنترل نگه دارد.
Sprinklr، یک شرکت نرمافزار بهعنوان سرویس، دارای یک پلتفرم مدیریت تجربه مشتری یکپارچه مبتنی بر هوش مصنوعی است که شرکتها را قادر میسازد تا بازخورد مشتری را در زمان واقعی در چندین کانال جمعآوری کرده و آن را به بینشهای عملی تبدیل کنند. این منجر به حل مشکلات پیشگیرانه، توسعه محصول پیشرفته، بازاریابی محتوای بهتر و خدمات بهتر به مشتریان می شود. Sprinklr از Infertia برای استقرار NLP و برخی از مدلهای بینایی کامپیوتری خود استفاده کرد و شاهد بهبود عملکرد قابل توجهی بود.
بسیاری از سرویس های آمازون نیز مدل های یادگیری ماشینی خود را بر روی Inferentia مستقر می کنند.
Amazon Prime Video از مدلهای ML بینایی کامپیوتری برای تجزیه و تحلیل کیفیت ویدیوی رویدادهای زنده استفاده میکند تا از تجربه بهینه بیننده برای اعضای Prime Video اطمینان حاصل کند. مدل طبقهبندی تصویر ML خود را روی نمونههای EC2 Inf1 به کار گرفت و شاهد بهبود عملکرد 4 برابری و تا 40 درصد کاهش هزینه در مقایسه با نمونههای مبتنی بر GPU بود.
مثال دیگر هوش مبتنی بر هوش مصنوعی و ML آمازون الکسا است که توسط خدمات وب آمازون پشتیبانی می شود که امروزه در بیش از 100 میلیون دستگاه در دسترس است. الکسا به مشتریان قول می دهد که همیشه هوشمندتر، گفتگوی تر، فعال تر و حتی لذت بخش تر خواهد بود. تحقق این وعده مستلزم بهبود مستمر در زمان پاسخگویی و هزینههای زیرساخت یادگیری ماشین است. با استقرار مدل متن به گفتار ML الکسا در نمونه های Inf1، تأخیر تخمین را تا 25 درصد و هزینه به ازای هر تخمین را 30 درصد کاهش می دهد تا تجربه خدمات را برای میلیون ها مشتری که هر ماه از الکسا استفاده می کنند، افزایش دهد. .
کشف قابلیتهای جدید یادگیری ماشین در فضای ابری
از آنجایی که شرکتها با فعال کردن بهترین محصولات و خدمات دیجیتالی برای اثبات آینده کسبوکار خود رقابت میکنند، هیچ سازمانی نمیتواند در به کارگیری مدلهای پیچیده یادگیری ماشینی برای کمک به نوآوری در تجربیات مشتری خود عقب بماند. در طول چند سال گذشته، کاربرد یادگیری ماشینی در موارد مختلف استفاده بسیار زیاد شده است، از شخصیسازی و پیشبینی خرابی گرفته تا کشف تقلب و پیشبینی زنجیره تامین.
خوشبختانه، زیرساخت یادگیری ماشین در فضای ابری در حال کشف قابلیتهای جدیدی است که قبلاً امکانپذیر نبود، و آن را برای پزشکان غیرمتخصص بسیار قابل دسترستر میکند. به همین دلیل است که مشتریان AWS در حال حاضر از نمونههای آمازون EC2 Inf1 مبتنی بر Inferentia استفاده میکنند تا اطلاعاتی را در پشت موتورهای توصیه و رباتهای گفتگوی خود ارائه دهند و بینشهای عملی را از بازخورد مشتریان به دست آورند.
با گزینههای زیرساخت یادگیری ماشین مبتنی بر ابر AWS مناسب برای سطوح مختلف مهارت، واضح است که هر سازمانی میتواند نوآوری و پذیرش مقیاس را در طول چرخه عمر یادگیری ماشین تسریع بخشد. با فراگیرتر شدن یادگیری ماشینی، سازمانها اکنون میتوانند تجربه مشتری – و روش انجام کسب و کارشان – را با زیرساختهای یادگیری ماشینی مبتنی بر ابری با کارایی بالا و مقرونبهصرفه تغییر دهند.
درباره اینکه چگونه پلت فرم یادگیری ماشینی AWS می تواند به شرکت شما در نوآوری کمک کند بیشتر بیاموزید.
این محتوا توسط AWS تولید شده است. این توسط تحریریه MIT Technology Review نوشته نشده است.
[ad_2]