Innholdsfortegnelse:

Hvordan serverer du en TensorFlow-modell?
Hvordan serverer du en TensorFlow-modell?

Video: Hvordan serverer du en TensorFlow-modell?

Video: Hvordan serverer du en TensorFlow-modell?
Video: tf serving tutorial | tensorflow serving tutorial | Deep Learning Tutorial 48 (Tensorflow, Python) 2024, April
Anonim

For å tjene en Tensorflow-modell , bare eksporter en SavedModel fra din Tensorflow program. SavedModel er et språknøytralt, utvinnbart, hermetisk serialiseringsformat som gjør det mulig for systemer og verktøy på høyere nivå å produsere, konsumere og transformere TensorFlow-modeller.

Følgelig, hvordan kjører jeg en TensorFlow-modell?

Dette er trinnene vi skal gjøre:

  1. Lag en dum modell som eksempel, tren og oppbevar den.
  2. Hent variablene du trenger fra den lagrede modellen.
  3. Bygg tensorinformasjonen fra dem.
  4. Lag modellsignaturen.
  5. Opprett og lagre en modellbygger.
  6. Last ned et Docker-bilde med TensorFlow-servering allerede kompilert på det.

I tillegg, hva serverer TensorFlow? TensorFlow-servering er en fleksibel, høy ytelse servering system for maskinlæringsmodeller, designet for produksjonsmiljøer. TensorFlow-servering gir ut-av-boksen integrasjon med TensorFlow modeller, men kan enkelt utvides til tjene andre typer modeller og data.

Angående dette, hvordan fungerer TensorFlow-serveren?

TensorFlow-servering lar oss velge hvilken versjon av en modell, eller "serverbar" vi ønsker å bruke når vi kommer med slutningsforespørsler. Hver versjon vil bli eksportert til en annen underkatalog under den angitte banen.

Hva er en modellserver?

Modellserver for Apache MXNet (MMS) er en åpen kildekode-komponent som er designet for å forenkle oppgaven med å distribuere dyp læring modeller for slutning i skala. Utplassering modeller for slutning er ikke en triviell oppgave.

Anbefalt: