[ad_1]
هوش مصنوعی و یادگیری ماشین (AI و ML) فناوریهای کلیدی هستند که به سازمانها کمک میکنند تا راههای جدیدی برای افزایش فروش، کاهش هزینهها، بهبود فرآیندهای تجاری و درک بهتر مشتریان خود ایجاد کنند. AWS به مشتریان کمک میکند تا با ارائه قدرت محاسباتی قدرتمند، شبکههای پرسرعت، و گزینههای ذخیرهسازی مقیاسپذیر و با کارایی بالا برای هر پروژه یادگیری ماشینی، استقرار هوش مصنوعی / ML را تسریع کنند. این امر مانع ورود سازمانهایی را که به دنبال استفاده از ابر برای مقیاسبندی برنامههای ML خود هستند، کاهش میدهد.
توسعه دهندگان و دانشمندان داده مرزهای فناوری را در پیش می گیرند و به طور فزاینده ای از یادگیری عمیق، که نوعی یادگیری ماشینی مبتنی بر الگوریتم های شبکه عصبی است، استقبال می کنند. این مدلهای یادگیری عمیق بزرگتر و پیچیدهتر هستند که منجر به افزایش هزینهها برای پشتیبانی از زیرساختهای اساسی برای آموزش و استقرار این مدلها میشود.
برای اینکه مشتریان بتوانند تحول AI/ML را تسریع کنند، AWS تراشه های یادگیری ماشینی با کارایی بالا و کم هزینه ایجاد می کند. AWS Inferentia اولین تراشه یادگیری ماشینی است که از ابتدا توسط AWS ساخته شده است تا کمترین هزینه یادگیری ماشین را در فضای ابری استنتاج کند. در واقع، نمونههای آمازون EC2 Inf1 که توسط Inferentia ارائه میشوند، 2.3 برابر عملکرد بالاتر و تا 70 درصد هزینههای استنتاج یادگیری ماشینی کمتری نسبت به نمونههای EC2 بر اساس پردازندههای گرافیکی نسل فعلی ارائه میکنند. AWS Trainium دومین تراشه یادگیری ماشینی از AWS است که به طور خاص برای آموزش مدلهای یادگیری عمیق توسعه یافته است و تا پایان سال 2021 در دسترس خواهد بود.
مشتریان صنایع مختلف برنامه های ML خود را در یک محیط تولید بر روی پلت فرم Inferentia به کار گرفته اند و متوجه بهبود قابل توجهی در عملکرد و صرفه جویی در هزینه شده اند. به عنوان مثال، پلت فرم خدمات مشتری AirBnB خدمات هوشمند، مقیاس پذیر و منحصر به فرد را به جامعه ای متشکل از میلیون ها میزبان و مهمان در سراسر جهان ممکن می کند. او از نمونههای EC2 Inf1 بر اساس Inferentia برای پیادهسازی مدلهای پردازش زبان طبیعی (NLP) استفاده کرد که از چتباتها پشتیبانی میکردند. این منجر به بهبود عملکرد دو برابری در مقایسه با نمونه های مبتنی بر GPU شد.
به لطف این نوآوریها در فناوری سیلیکون، AWS مشتریان را قادر میسازد تا به راحتی مدلهای یادگیری عمیق خود را در تولید با راندمان و توان عملیاتی بالا با هزینههای بسیار کمتر آموزش داده و پیادهسازی کنند.
چالشهای یادگیری ماشینی انتقال به زیرساخت مبتنی بر ابر را تسریع میکنند
یادگیری ماشینی فرآیندی تکراری است که به تیم ها نیاز دارد تا به سرعت برنامه ها را بسازند، آموزش دهند، و برنامه های کاربردی را به کار ببرند، همچنین به آموزش مکرر، بازآموزی و آزمایش برای افزایش دقت پیش بینی مدل نیاز دارند. هنگام پیادهسازی مدلهای آموزشدیده در برنامههای تجاری خود، سازمانها همچنین باید برنامههای کاربردی خود را برای خدمترسانی به کاربران جدید در سراسر جهان مقیاسبندی کنند. آنها باید بتوانند چندین درخواست ورودی را به طور همزمان با تأخیر تقریباً لحظه ای رسیدگی کنند تا بهترین تجربه کاربر را ارائه دهند.
موارد استفاده نوظهور مانند تشخیص اشیا، پردازش زبان طبیعی (NLP)، طبقهبندی تصویر، هوش مصنوعی محاورهای و دادههای سری زمانی به فناوری یادگیری عمیق متکی هستند. اندازه و پیچیدگی مدل های یادگیری عمیق به طور تصاعدی در حال افزایش است و طی چندین سال از میلیون ها پارامتر به میلیاردها می رسد.
آموزش و اجرای این مدل های پیچیده و پیچیده به هزینه های زیرساختی قابل توجهی تبدیل می شود. هزینهها میتوانند به سرعت بالا بروند، زیرا سازمانها برنامههای کاربردی خود را برای ارائه تجربهای تقریباً همزمان به کاربران و مشتریان مقیاس میدهند.
اینجاست که خدمات زیرساخت یادگیری ماشین مبتنی بر ابر میتوانند کمک کنند. این ابر دسترسی بر اساس تقاضا به قدرت محاسباتی، شبکه کارآمد و ذخیره سازی داده های بزرگ را فراهم می کند که به طور یکپارچه به عملیات ML و خدمات هوش مصنوعی سطح بالاتر متصل می شود تا سازمان ها را قادر می سازد تا فوراً ابتکارات AI / ML را شروع و مقیاس کنند.
چگونه AWS به مشتریان کمک می کند تا تحول AI / ML خود را تسریع کنند
هدف AWS Inferentia و AWS Trainium دموکراتیک کردن یادگیری ماشین و در دسترس قرار دادن آن برای برنامه نویسان بدون توجه به تجربه و اندازه سازمان است. طراحی Inferentia برای عملکرد بالا، توان عملیاتی و تاخیر کم بهینه شده است، و آن را برای استقرار استنتاج ML در مقیاس بزرگ ایده آل می کند.
هر تراشه AWS Inferentia شامل چهار NeuronCore است که یک موتور ضرب ماتریس ماتریس انقباض با کارایی بالا را پیادهسازی میکند که عملیات یادگیری عمیق رایج مانند کانولوشن و ترانسفورماتورها را تا حد زیادی سرعت میبخشد. NeuronCore همچنین دارای یک کش بزرگ روی تراشه است که به محدود کردن دسترسی به حافظه خارجی، کاهش تاخیر و افزایش پهنای باند کمک می کند.
AWS Neuron، یک کیت توسعه نرم افزار برای Inferentia، به طور بومی از پلتفرم های پیشرو ML مانند TensorFlow و PyTorch پشتیبانی می کند. توسعه دهندگان همچنان می توانند از همان چارچوب ها و ابزارهای توسعه ای که می شناسند و دوست دارند استفاده کنند. در مورد بسیاری از مدل های آموزش دیده، آنها می توانند آنها را کامپایل کرده و در پلتفرم Inferentia مستقر کنند و تنها یک خط کد را تغییر دهند، بدون اینکه هیچ تغییر اضافی در کد برنامه ایجاد شود.
نتیجه اجرای استنتاج با عملکرد بالا است که می تواند به راحتی مقیاس شود و در عین حال هزینه ها را تحت کنترل نگه دارد.
Sprinklr، یک شرکت نرمافزار بهعنوان یک سرویس، دارای یک پلتفرم مدیریت تجربه مشتری مبتنی بر هوش مصنوعی است که شرکتها را قادر میسازد تا بازخوردهای بیدرنگ مشتری را از طریق کانالهای متعدد به بینشهای عملی تبدیل کنند. این منجر به حل مشکلات پیشگیرانه، بهبود توسعه محصول، بهبود بازاریابی محتوا و خدمات بهتر به مشتریان می شود. Sprinklr از Inferentia برای پیاده سازی NLP و برخی از مدل های بینایی کامپیوتری خود استفاده کرده است و پیشرفت های قابل توجهی در عملکرد داشته است.
چندین سرویس آمازون نیز مدل های یادگیری ماشین خود را در Inferentia پیاده سازی می کنند.
Amazon Prime Video از مدل های کامپیوتری ML برای تجزیه و تحلیل کیفیت ویدیوی رویدادهای زنده استفاده می کند تا تجربه بیننده ای بهینه را برای اعضای Prime Video فراهم کند. مدلهای ML خود را برای طبقهبندی تصویر در نمونههای EC2 Inf1 پیادهسازی کرد و شاهد بهبود عملکرد چهار برابری و تا 40 درصد کاهش هزینه نسبت به نمونههای مبتنی بر GPU بود.
مثال دیگر هوش مبتنی بر هوش مصنوعی و ML آمازون الکسا است که توسط خدمات وب آمازون پشتیبانی می شود که در حال حاضر در بیش از 100 میلیون دستگاه در دسترس است. قول الکسا به مشتریان این است که او همیشه باهوش تر، گفتگوی تر، فعال تر و حتی لذت بخش تر می شود. حفظ این وعده مستلزم بهبود مستمر در زمان پاسخگویی و هزینه زیرساخت یادگیری ماشین شما است. با استقرار مدلهای تبدیل متن به گفتار ML الکسا در نمونههای Inf1، میتوان تأخیر استنتاج را تا 25 درصد و هزینه استنتاج را تا 30 درصد کاهش داد تا کیفیت خدمات دهها میلیون مشتری که هر ماه از الکسا استفاده میکنند بهبود یابد.
باز کردن فرصتهای یادگیری ماشینی جدید در فضای ابری
از آنجایی که شرکتها با ارائه بهترین محصولات و خدمات دیجیتالی برای آمادهسازی کسبوکار خود برای آینده رقابت میکنند، هیچ سازمانی نمیتواند در پیادهسازی مدلهای پیشرفته یادگیری ماشین برای کمک به مدرنسازی تجربیات مشتری عقب بماند. در چند سال گذشته، افزایش زیادی در استفاده از یادگیری ماشینی در موارد استفاده مختلف، از شخصیسازی و پیشبینی انصراف گرفته تا کشف تقلب و پیشبینی زنجیره تامین، وجود داشته است.
خوشبختانه، یک زیرساخت یادگیری ماشین مبتنی بر ابر فرصتهای جدیدی را که قبلاً امکانپذیر نبود، باز میکند، و آن را برای پزشکان غیرمتخصص بسیار قابل دسترستر میکند. به همین دلیل است که مشتریان AWS در حال حاضر از نمونههای آمازون EC2 Inf1 با فناوری Inferentia استفاده میکنند تا اطلاعاتی را در پشت موتورهای پیشنهادی و رباتهای گفتگوی خود ارائه دهند و اطلاعات مفیدی را بر اساس بازخورد مشتری دریافت کنند.
با گزینه های زیرساخت یادگیری ماشین ابری AWS که برای سطوح مختلف مهارت مناسب هستند، واضح است که هر سازمانی می تواند نوآوری را تسریع کند و کل چرخه زندگی یادگیری ماشینی در مقیاس بزرگ را پوشش دهد. با فراگیرتر شدن یادگیری ماشینی، سازمانها اکنون میتوانند اساساً نحوه خدمات رسانی به مشتریان – و روش انجام کسب و کارشان را با یک زیرساخت یادگیری ماشینی مبتنی بر ابری با کارایی بالا و مقرونبهصرفه تغییر دهند.
درباره اینکه چگونه پلتفرم یادگیری ماشینی AWS می تواند به کسب و کار شما در نوآوری کمک کند بیشتر بیاموزید.
این محتوا توسط AWS تولید شده است. این توسط سردبیران MIT Technology Review نوشته نشده است.
[ad_2]