Deploy deep learning models in production - هفت خط کد انجمن پرسش و پاسخ برنامه نویسی

Deploy deep learning models in production

+1 امتیاز

سلام

چندتا سوال داشتم ممنون میشم به سوالاتم جواب کامل بدید.

۱- فرضا یک مدل با تنسورفلو آموزش دادیم و فایل های ckpt , metadata , pb  آنها را داریم حالا میخواهیم این را در production استفاده کنیم چند جا دیدم که از کتابخانه tensorflow serving استفاده شده بود میخاستم ببینم چه موقعی لازمه از این کتابخانه در محصول نهایی مون استفاده کنیم ؟ وقتی که میخاهیم latency کارمون را بیاریم پایین یا اینکه دلایل خاصی داره ؟ و اینکه همیشه در محصول نهایی از این کتابخانه باید استفاده بشود یا اینکه مواقعی که تعداد درخواست ها از کلایت بیشتر هست لازمه ؟

۲- آیا کار کردن با tensorflow serving برای تسک های کلاسیفیکیشن و دتشکن یا حتی text فرقی داره؟ منظورم اینکه فقط کافیه فایل های نهایی ترین شده را داشته باشیم؟

۳- اگر بجای این tensorflow serving به این صورت کار کنیم آیا ایرادی داره ؟ اگر نه . پس فرق با سروینگ چیه؟

......

model = None

.......

if __name__ == '' __main:

global model

if model is None:

model.load_weight

۴- تفاوت این tensoflow serving با tensorflow c++ api چیه ؟ جایی دیدم که بجای سروینگ از این api استفاده شده بود؟

۵- برای مدل آموزش دیده شده کراس در production آیا راه حلی وجود دارد ؟ یعنی کاری معادل با tensorflow serving  ؟ flask ؟با tensorflow serving نمیشه ؟ واین flask رو هم میشه برای مدل های تنسورفلو استفاده کرد ؟ این flask , tensorflow serving برتری نسبت به هم دارند؟

6- اصلا هدف اصلی tensorflow serving چی هست آیا برای همه ی محصولات لازمه استفاده بشه ؟ مزیت هاش چیه؟

7- اگر میشود یک نمونه کد خوب برای کار با tensorflow serving قرار دهید.

سوال شده اسفند 17, 1397  بوسیله ی minimax (امتیاز 78)   6 20 27
ویرایش شده اسفند 18, 1397 بوسیله ی minimax

پاسخ شما

اسم شما برای نمایش (دلخواه):
از ایمیل شما فقط برای ارسال اطلاعات بالا استفاده میشود.
تایید نامه ضد اسپم:

برای جلوگیری از این تایید در آینده, لطفا وارد شده یا ثبت نام کنید.
...