关于我们

About Us

深维科技

成立于2016年,拥有中国顶级FPGA软硬件产品设计开发团队和AI算法专家。团队主要成员拥有十年以上FPGA行业经验,在AI应用算法实现,EDA工具开发,系统架构设计等方面有深厚积淀。公司立足本土市场,致力于成为领先的面向AI应用的FPGA计算平台厂商。我们通过高效的FPGA AI应用设计工具、IP以及硬件产品,为客户带来领先的从“端”到“云”的AI解决方案,加速AI应用部署过程,降低AI部署成本。人工智能算法的迅猛发展必将为各行各业带来深刻的市场变革,深维科技将为您提供一流的AI应用FPGA解决方案,助力客户抢占新兴市场!深维科技愿与您携手,让AI-FPGA设计更轻松!

技术和产品

Technology & Products

DPNeuro - 以深维科技在AI算法领域拥有的研究成果为基础,结合国际一流的自主FPGA设计工具流程和完备的集成系统开发能力,
构建的面向AI推理应用的全栈技术框架

DPNetgen
深度网络结构优化

DPComp
FPGA设计实现套件

DPAccel
AI云端加速

DPEmbbed
嵌入式AI部署

创始人

Founder

樊平

创始人 CEO

北京航空航天大学计算机系本硕;拥有十三年半导体、EDA行业经验;曾任京微雅格技术总监,Cadence、IBM资深软件工程师;主导设计国产首款千万门级FPGA核心逻辑架构,主持研发国际一流水平的逻辑综合工具和时序分析工具;已申请四十多项国际和国内发明专利。


应用方案

Application Solutions

深维科技致力于成为领先的面向AI应用的FPGA计算平台厂商,为客户提供更便捷,更高效,更经济的AI-FPGA设计。 我们坚信,随着智能时代的到来,FPGA作为一种高效能的计算平台,必将在从大数据云平台到智能终端设备上得到更广泛的应用。深维科技着眼于安防监控,数据中心,ADAS,FPGA EDA核心技术等市场,不断的将更新更高效的技术和设计应用于产品和市场。

视频展示

Video Demo

合作伙伴

Partner

深维科技已经在智能监控、数据中心加速等场景与多家顶级公司展开合作。

合作伙伴


投资者关系

Investors

金沙江创投



媒体报道

Media Coverage

中文报道内容

合作伙伴

联系我们

Contact Us

sales@deepoly.com
support@deepoly.com

招聘职位

Join Us

ypwang@deepoly.com

招聘职位:

01. 深度学习/视觉算法研发工程师

岗位职责:

1. 研究深度学习(包括各种神经网络结构与应用)或计算机视觉各个领域(目标检测识别等)中核心算法

2. 将上述核心算法应用到各种复杂现实场景中,例如无人机,大规模语音识别等

3. 针对应用场景进行优化和定制

4. 编写相关算法分析和优化报告

任职要求:

1. 计算机图像、语音方向等相关专业硕士以上学历

2. 具有三年以上算法研究经验

3. 熟悉至少一种深度学习算法,例如CNN或者LSTM等

4. 熟悉至少一种深度学习框架,包括Caffe等

5. 具有相关应用背景者优先,例如做过跟踪、识别等应用项目

6. 具有钻研和创造力,能够通过阅读论文学习最新算法和理论

7. 要求责任心强,有良好的学习能力和协作精神,愿意接受挑战和承受工作压力要求

8. 在CVPR,ICCV,ECCV,NIPS,ICLR,TPAMI等相关顶级学术会议期刊发表过相关论文者优先


01. 深度学习/视觉算法研发工程师

岗位职责:

1. 研究深度学习(包括各种神经网络结构与应用)或计算机视觉各个领域(目标检测识别等)中核心算法

2. 将上述核心算法应用到各种复杂现实场景中,例如无人机,大规模语音识别等

3. 针对应用场景进行优化和定制

4. 编写相关算法分析和优化报告

任职要求:

1. 计算机图像、语音方向等相关专业硕士以上学历

2. 具有三年以上算法研究经验

3. 熟悉至少一种深度学习算法,例如CNN或者LSTM等

4. 熟悉至少一种深度学习框架,包括Caffe等

5. 具有相关应用背景者优先,例如做过跟踪、识别等应用项目

6. 具有钻研和创造力,能够通过阅读论文学习最新算法和理论

7. 要求责任心强,有良好的学习能力和协作精神,愿意接受挑战和承受工作压力要求

8. 在CVPR,ICCV,ECCV,NIPS,ICLR,TPAMI等相关顶级学术会议期刊发表过相关论文者优先


学术成绩

Check out our members’ recent presentations and papers

Presentations


Aug 2016 Hot Chips 2016
[1] "From Model to FPGA: Software-Hardware Co-Design for Efficient Neural Network Acceleration"

Feb 2017 Embedded Neural Network Summit

[2] "Improve the Efficiency of Deep Learning by Algorithm-Hardware Co-Design"

2017 FPGA 2017 Tutorial
[3] "Deep Learning – Tutorial and Recent Trend"

May 2017 Embedded Vision Summit
[4] TBD

2016 FPL 2016 Tutorial
[5] "Energy-efficient Acceleration for Neuro-inspired Computing On-a-Chip"

2016 ASPDAC 2016 Tutorial
[6] "Machine learning and Neuromorphic Computing Acceleration"

Publications and Awards


2016 ICLR 2016 Best Paper
[1] "Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding"

2017 FPGA 2017 Best Paper
[2] "ESE: Efficient Speech Recognition Engine with Compressed LSTM on FPGA"

2016 NIPS 2016
[3] "ESE: Efficient Speech Recognition Engine with Compressed LSTM on FPGA" Best Paper Honorable Mention in NIPS 2016 Workshop on Efficient Method for Deep Neural Network

2016 ISCA 2016
[4] "EIE: Efficient Inference Engine on Compressed Deep Neural Network"

2016 FPGA 2016
[5] "Going deeper with embedded FPGA platform for convolutional neural network"

2015 NIPS 2015
[6] "Learning both Weights and Connections for Efficient Neural Network"

2017 ICLR 2017
[7] "DSD: Regularizing deep neural networks with dense-sparse-dense training flow"

2017 ICLR 2017
[8] "Trained Ternary Quantization"

2017 IEEE Micro, 2017
[9] "Software-Hardware Co-Design for Efficient Neural Network Acceleration"

2016 ISCA 2016
[10] "PRIME: A novel processing-in-memory architecture for neural network computation in reRam-based main memory"

2016 arXiv preprint:1602.07360
[11] "SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and< 0.5MB model size"

2016 IEEE Transactions on Emerging Topic in Computing, 2016

[12] "Towards Real-Time Object Detection on Embedded Systems"

2016 ISCAS 2016
[13] "Low power Convolutional Neural Networks on a chip"

2016 ISVLSI 2016 & IEEE Transactions on CAD, 2017

[14] "Angel-Eye: A Complete Design Flow for Mapping CNN onto Customized Hardware"

2016 ESTIMedia, 2016
[15] "Real-time pedestrian detection and tracking on customized hardware"

技术和产品

Technology & Products

以AI算法领域的研究成果积累为基础,结合一流的自主FPGA设计工具流程,先进的FPGA软件优化技术和完备的软硬件集成系统开发能力,构建了DPNeuro - 面向AI推理应用的FPGA支持框架。首先,使用DPNetGen工具对用户用AI设计框架如Caffe,TensorFlow训练的浮点精度网络进行模型匹配,根据目标应用场景的不同产生适合FPGA实现的网络结构;然后,使用DPComp工具进行FPGA实现,通过针对神经网络的优化策略,高效的将网络实现为FPGA上的硬件电路;最后,实现后的FPGA设计可以根据应用场景的不同选择面向云端应用的DPAccel平台或面向嵌入式应用的DPEmbbed平台进行产品化。

总体.png


DPNetgen
深度网络结构优化

随着AI应用的不断发展,优秀的AI应用框架也不断涌现。Caffe, TensorFlow,MxNet等框架极大的降低了AI开发的门槛,提高了开发者的效率。

但FPGA作为新兴的AI计算平台,需要用专用的硬件设计语言进行开发。因此,FPGA AI加速设计的第一步就是用将通用框架设计训练后生成的神经网络模型转换为能作为FPGA设计实现工具输入的设计描述。

深维科技的DPNetgen技术,完成AI FPGA设计的快速生成:

- 自动将通用框架设计训练后生成的神经网络模型转换为FPGA设计输入

- 自动完成浮点到定点的转换,提高FPGA AI加速设计的效率

NetGen.png


DPComp
FPGA设计实现套件

完成FPGA模型适配后,需要用FPGA设计实现工具对输入的AI网络进行FPGA实现。FPGA作为一种可编程的通用器件,针对特定应用的性能取决于FPGA流程工具针对该类应用的优化程度。

深维科技的DPComp FPGA设计实现工具,保证AI设计在FPGA上实现结果的性能:

- 在通用设计上达到了Xilinx原厂Vivado设计套件的水平

- 针对AI应用从面积和Fmax两方面进行了优化

Comp.png

DPAccel
AI云端加速

面向服务器AI应用加速需求,深维科技的DPAccel平台提供了从加速IP,加速卡到加速服务器的解决方案。

加速IP 

- 覆盖图像分类(AlexNet,VGG)

- 目标检测(YOLO)

- 自然语言处理和图像高清编码等;

加速卡 

- 基于Xilinx公司Kintex系列芯片

- 支持PCI Express Gen3 x8,最大带宽64Gb/s

-  板载2X8GB DDR3 1600内存,访存带宽高达204.8Gb/s

- 支持10GE以太网接口互联;

加速服务器 

- 单机可支持2卡或4卡 

支持加速卡间直连池化使用。

blob.png


DPEmbbed
嵌入式AI部署

针对智能化端设备有限的计算能力和苛刻的功耗限制,深维科技的DPEmbbed平台提供了一系列IP和解决方案:

轻量级图像分类

- Alexnet,卷积计算性能840GOP/s,功率24W

- VGG16,卷积计算性能2.8TOP/s,能效比117GOP/s/W

快速物体检测

- YOLO,卷积计算性能960GOP/s,功率15W

二进制神经网络

- 使用XOR操作代替乘法

- SWAR(SIMD within a register)加速

- 32倍的参数压缩

- 最高20倍的加速

基于以上技术,深维科技搭建了基于FPGA的智能摄像机方案,赋予传统监控摄像机智能分析处理的能力

- 行人检测

- 人脸识别

- 多目标追踪

- 支持480P,720P,1080P图像输入


智能监控系统_副本.png