A TensorFlow Extended (TFX) Pusher komponense a TFX folyamat alapvető része, amely kezeli a betanított modellek különféle célkörnyezetekben történő telepítését. A TFX Pusher összetevőjének telepítési céljai sokrétűek és rugalmasak, lehetővé téve a felhasználók számára, hogy sajátos követelményeiktől függően különböző platformokra telepítsék modelleiket. Ebben a válaszban megvizsgáljuk a Pusher összetevő néhány általános telepítési célját, és mindegyikről átfogó magyarázatot adunk.
1. Helyi telepítés:
A Pusher összetevő támogatja a helyi üzembe helyezést, amely lehetővé teszi a felhasználók számára, hogy betanított modelljeiket telepítsék a helyi gépen. Ez hasznos tesztelési és fejlesztési célokra, ahol a modell telepíthető és értékelhető elosztott rendszer vagy külső infrastruktúra nélkül. A helyi üzembe helyezés egyszerűen a helyi elérési út megadásával érhető el, ahol a modell melléktermékei tárolódnak.
Példa:
python pusher = Pusher( model=trainer.outputs['model'], model_blessing=evaluator.outputs['blessing'], push_destination=pusher_pb2.PushDestination( filesystem=pusher_pb2.PushDestination.Filesystem( base_directory='/path/to/local/deployment' ) ) )
2. Google Cloud AI Platform:
A Pusher összetevő támogatja a Google Cloud AI Platform telepítését is, egy felügyelt szolgáltatást, amely szerver nélküli környezetet biztosít a gépi tanulási modellek futtatásához. Ez lehetővé teszi a felhasználók számára, hogy könnyen telepítsék modelljeiket a felhőbe, és kihasználják a Google Cloud által kínált méretezhetőséget és megbízhatóságot. A Google Cloud AI Platformon való üzembe helyezéshez a felhasználóknak meg kell adniuk a projektazonosítót, a modell nevét és a verzió nevét.
Példa:
python pusher = Pusher( model=trainer.outputs['model'], model_blessing=evaluator.outputs['blessing'], push_destination=pusher_pb2.PushDestination( ai_platform_push=pusher_pb2.PushDestination.AIPlatformPush( project_id='my-project', model_id='my-model', version_id='v1' ) ) )
3. TensorFlow kiszolgálás:
A TensorFlow Serving egy nyílt forráskódú kiszolgálórendszer a gépi tanulási modellek telepítéséhez. A TFX Pusher összetevője támogatja a TensorFlow Serving rendszerbe történő telepítést, lehetővé téve a felhasználók számára, hogy modelleiket elosztott kiszolgálási infrastruktúrára telepítsék. Ez nagy teljesítményű és méretezhető modellkiszolgálást tesz lehetővé, így alkalmassá válik éles üzembe helyezésekre. A TensorFlow szolgáltatásban való üzembe helyezéshez a felhasználóknak meg kell adniuk a TensorFlow kiszolgáló modellkiszolgáló címét és portját.
Példa:
python pusher = Pusher( model=trainer.outputs['model'], model_blessing=evaluator.outputs['blessing'], push_destination=pusher_pb2.PushDestination( tensorflow_serving=pusher_pb2.PushDestination.TensorFlowServing( tags=['serve'], server='localhost:8500' ) ) )
4. Egyéb egyéni telepítési célok:
A TFX Pusher összetevőjét úgy tervezték, hogy bővíthető legyen, lehetővé téve a felhasználók számára, hogy meghatározzák saját egyéni telepítési céljaikat. Ez rugalmasságot biztosít a felhasználóknak, hogy modelljeiket bármilyen környezetben vagy rendszerben üzembe helyezzék, amely képes használni a TensorFlow modelleket. A felhasználók megvalósíthatják saját egyéni PushDestination alosztályukat, és regisztrálhatják azt a Pusher komponensben, hogy lehetővé tegyék a telepítést a célkörnyezetükben.
Példa:
python class MyCustomPushDestination(pusher_pb2.PushDestination): def __init__(self, my_custom_arg): self.my_custom_arg = my_custom_arg pusher = Pusher( model=trainer.outputs['model'], model_blessing=evaluator.outputs['blessing'], push_destination=MyCustomPushDestination(my_custom_arg='custom_value') )
A TFX Pusher összetevője különféle telepítési célokat támogat, beleértve a helyi telepítést, a Google Cloud AI Platformot, a TensorFlow szolgáltatást és az egyéni telepítési célokat. Ez a rugalmasság lehetővé teszi a felhasználók számára, hogy speciális szükségleteiktől és infrastruktúra-beállításuktól függően különböző környezetekben telepítsék betanított modelljeiket.
További friss kérdések és válaszok ezzel kapcsolatban Elosztott feldolgozás és alkatrészek:
- Mi a célja az Értékelő összetevőnek a TFX-ben?
- Mi a Trainer komponens által generált SavedModels két típusa?
- Hogyan biztosítja a Transform komponens a konzisztenciát a képzési és a kiszolgálási környezet között?
- Mi az Apache Beam szerepe a TFX keretrendszerben?