Ferramenta de Consolidação de Fluxo de Trabalho do OpenVINO™

Acelere, simplifique e valide inferência de aprendizagem profunda

A Ferramenta de Consolidação de Fluxo de Trabalho do OpenVINO™ (OWCT) (disponível no QTS App Center) é uma ferramenta de aprendizagem profunda para converter modelos treinados em um serviço de inferência acelerado pela Distribuição da Intel® do Kit de Ferramentas OpenVINO™ (Otimização de Inferência Visual e Rede Neural Aberta), que ajuda a distribuir soluções de visão de máquina que usam IA de forma econômica.

QNAP oferece Ferramenta de Consolidação de Fluxo de Trabalho do OpenVINO™ para capacitar o QNAP NAS como um servidor de inferência.

Treinamento e inferência

“Treinamento” é quando o sistema aprende com dados existentes. “Inferência” é quando um modelo treinado é usado para fazer previsões úteis com dados reais.

Distribuição da Intel® do Kit de Ferramentas OpenVINO™

O kit de ferramentas OpenVINO™ ajuda a acelerar o desenvolvimento da visão computacional de alto desempenho e da aprendizagem profunda em aplicações de visão. Ele habilita a aprendizagem profunda em aceleradores de hardware e a execução heterogênea facilitada em plataformas da Intel®, incluindo CPU, GPU, FPGA e VPU. Os principais componentes incluem:

  • O Kit de Ferramentas de Desenvolvimento de Aprendizagem Profunda da Intel® (Otimizador de Modelo e Mecanismo de Inferência)
  • Funções otimizadas para OpenCV* e OpenVX*
  • Oferece mais de 15 códigos de exemplo e modelos pré-treinados para fácil implantação

Fonte: Intel

Sua inferência de IA para visão computacional, agora mais rápida!

Principais benefícios de usar a Ferramenta de Consolidação de Fluxo de Trabalho do OpenVINO™ (OWCT):

  • Aceleração
  • Otimização
  • GUI
  • Aceleração

    O kit de ferramentas OpenVINO™ contém uma biblioteca de código aberto que ajuda a reduzir o tempo de desenvolvimento e simplifica a inferência de aprendizagem profunda e a implantação de soluções orientadas à visão.

  • Otimização

    O Otimizador de Modelos converte modelos treinados em uma representação intermediária (IR) e realiza otimizações básicas para aumentar a eficiência da inferência.

  • GUI

    A OWCT usa uma GUI que permite que os usuários utilizem os recursos do OpenVINO™ com facilidade, exibam elementos visuais e baixem o resultado da inferência.

Inferência passo a passo com a OWCT

A OWCT consolida todos os recursos necessários do OpenVINO™ para ajudar você a criar o Mecanismo de Inferência e analisar os resultados de inferência do modelo. Basta seguir o assistente do aplicativo e configurar tudo em poucas etapas!

Use modelos pré-treinados para agilizar o desenvolvimento

Além de pesquisar modelos ou treinar seus próprios modelos, o kit de ferramentas do OpenVINO™ também oferece modelos pré-treinados otimizados da Intel® em aplicativos de usuário, o que é conhecido como Mecanismo de Inferência.

  • Use modelos pré-treinados
  • Use seus modelos treinados
  • O kit de ferramentas OpenVINO™ inclui dois conjuntos de modelos otimizados. Você pode adicionar esses modelos diretamente ao seu ambiente e acelerar seu desenvolvimento.

    Modelos pré-treinados:

    • Reconhecimento de idade e sexo
    • Interseção
    • Posição da cabeça
    • Barreiras de segurança
    • Reconhecimento de características de veículos
    • ...e muito mais
  • Importe seus próprios modelos treinados para aproveitar a otimização do Otimizador de Modelos e do Mecanismo de Inferência. Assim, você poderá realizar inferência com facilidade para visão computacional em arquiteturas atuais ou futuras da Intel® para atender a todas as suas necessidades de IA. O kit de ferramentas OpenVINO™ funciona com modelos pré-treinados que usam os formatos Caffe e TensorFlow.

QNAP NAS como servidor de inferência

O kit de ferramentas OpenVINO™ amplia as cargas de trabalho entre os componentes de hardware da Intel® (incluindo aceleradores) e maximiza o desempenho. Quando usado com a Ferramenta de Consolidação de Fluxo de Trabalho do OpenVINO™, os sistemas QNAP NAS com processadores Intel apresentam um Servidor de Inferência ideal que ajuda as organizações a criar um sistema de inferência com rapidez. Oferecendo um otimizador de modelos e um mecanismo de inferência, o kit de ferramentas OpenVINO™ é fácil de usar e flexível para visão computacional de alto desempenho e baixa latência que otimiza a inferência de aprendizado profundo. Desenvolvedores de IA podem implantar modelos treinados em um QNAP NAS para inferência e instalar aceleradores de hardware baseados em plataformas da Intel® a fim de maximizar o desempenho da realização de inferência.

Mecanismo de inferência fácil de gerenciar

  • Carregue um arquivo de vídeo

  • Baixe o resultado da inferência

Maior desempenho com placas aceleradoras

O kit de ferramentas OpenVINO™ é compatível com execução heterogênea em aceleradores de visão computacional (CPU, GPU, FPGA e VPU) usando uma API comum para otimização voltada a dispositivos específicos.

  • AceleradorFPGA

    Mustang-F100-A10

    • FPGA Intel® Arria® 10 GX 1150
    • PCIe 3.0 x8
    • Slots duplos, compactos, da metade da altura
  • AceleradorVPU

    Mustang-V100-MX8

    • Solução Intel® Movidius™
    • 8x Myriad™ X VPU
    • PCIe 2.0 x4
    • Slot único compacto da metade do tamanho

OpenVINO e o logotipo OpenVINO são marcas comerciais da Intel Corporation ou de suas subsidiárias nos Estados Unidos e/ou em outros países.

Escolher especificação

      Mostrar mais Menos

      Este site noutros países/regiões:

      open menu
      back to top