Qnap Mustang-V100-MX8-R10 Karta akceleratora obliczania z 8 x Movidius Myriad X MA2485 VPU, PCIe Gen2 x4, RoHS

Qnap Mustang-V100-MX8-R10 Karta akceleratora obliczania z 8 x Movidius Myriad X MA2485 VPU, PCIe Gen2 x4, RoHS

1 oferta od 4647,00 zł

Dodaj do grupy porównywania

Producent: QNAP

Najtańsze oferty Qnap Mustang-V100-MX8-R10 Karta akceleratora obliczania z 8 x Movidius Myriad X MA2485 VPU, PCIe Gen2 x4, RoHS

Informacje o Qnap Mustang-V100-MX8-R10 Karta akceleratora obliczania z 8 x Movidius Myriad X MA2485 VPU, PCIe Gen2 x4, RoHS

Zestaw narzędzi OpenVINOZestaw narzędzi OpenVINO jest oparty na sieci CNN (ang. Convolutional Neural Networks) i pozwala zwiększyć liczbę zadań na całym sprzęcie Intel, maksymalizując wydajność.Zestaw pozwala na optymalizację modelu głębokiego uczenia z wcześniejszych szkoleń, np. konwertując format Caffe, MXNET, Tensorflow w plik binarny IR, a następnie może uruchomić silnik inferencji niejednorodnie na całym sprzęcie Intel, np. na procesorze, karcie graficznej, Intel Movidius Neural Compute Stick i FPGA.Uzyskaj akcelerację głębokiego uczenia na serwerze/komputerze z architekturą IntelModel Mustang-V100 można zainstalować na komputerze/na stacji roboczej z systemem Linux (Ubuntu), aby uzyskać akcelerację obliczeniową, zapewniającą optymalną wydajność takich zastosowań, jak inferencja głębokiego uczenia, strumieniowanie wideo i centrum danych. Stanowiąc idealne rozwiązanie do akceleracji dla inferencji AI w czasie rzeczywistym, model Mustang-F100 może także współdziałać z zestawem narzędzi Intel OpenVINO, optymalizując liczbę zadań w zakresie inferencji w przypadku klasyfikacji obrazów i widzenia komputerowego.QNAP NAS jako serwer inferencjiZestaw narzędzi OpenVINO umożliwia dystrybucję obciążenia pracą na osprzęt Intel (w tym akceleratory), zwiększając maksymalnie wydajność. W przypadku korzystania z narzędzia OpenVINO Workflow Consolidation Tool firmy QNAP, urządzenie QNAP NAS oparte na architekturze Intel służy jako idealny serwer inferencji, pozwalając organizacjom na szybkie tworzenie systemu inferencji. Zestaw narzędzi OpenVINO zawiera narzędzie do optymalizacji modelu i silnik inferencji, dzięki czemu jest łatwy w obsłudze i zapewnia elastyczność umożliwiającą uzyskanie wysokiej wydajności, niewielkie opóźnienia widzenia komputerowego, ulepszając inferencje głębokiego uczenia. Projektanci sztucznej inteligencji (AI) mogą wdrażać w urządzeniach QNAP NAS modele szkoleniowe w celu uzyskania inferencji i instalować modele Mustang-F100, aby uzyskać optymalną wydajność potrzebną do aktywowania inferencji.Uwaga:1. Serwer QNAP NAS wymaga systemu QTS 4.4.0 (lub nowszej wersji) oraz OWCT v1.1.0.2. Aby korzystać z funkcji obliczeniowej karty FPGA na serwerze QNAP NAS, zostanie wyłączona funkcja pass-through maszyny wirtualnej. Aby nie dopuścić do potencjalnej utraty danych, przed ponownym uruchomieniem upewnij się, że wszystkie bieżące zadania na serwerze NAS zostały zakończone.