На прошлой неделе компания Flex Logix, на конференции Linley Fall Conference 2020, анонсировала InferX X1 AI Inference Accelerator. На днях компания анонсировали InferX X1 SDK, плату PCIe и плату M.2.
Пакет SDK для InferX X1 Edge Inference
SDK для InferX Edge Inference прост и удобен. Входными данными для компилятора может быть высокоуровневая, аппаратно-независимая реализация модели нейронной сети с открытым исходным кодом, которая может быть моделью TensorFlow Lite или ONNX. Компилятор использует эту модель, ищет доступные ресурсы X1 и генерирует двоичный исполняемый файл. Это происходит во время выполнения, которое затем принимает входной поток, например, прямую трансляцию с камеры. Пользователь должен указать, какая модель компилятора, затем драйвер InferX X1 принимает ее и отправляет на аппаратное оборудование.