无人驾驶实验平台QCar是一个专为高校实验室而设计的可高度扩展、配备多种传感器且功能强大的实验平台。可用于进行数据集成、地图绘制、导航、机器学习、人工智能和其他高级无人驾驶概念的研究学习。QCar配备多种传感器,包括LIDAR、360度视觉传感器、深度传感器、IMU、编码器以及可扩展I/O口,可以实现对周围环境的准确测量。QCar提供的开放式架构使得使用者可以研发自己的控制器。QCar可为使用者提供多种语言开发环境,包括MATLAB®/Simulink®, Python™, TensorFlow和ROS等。
为了解决目前市面上大多无人驾驶实验平台所遇到的问题,Quanser花费了6年的时间开发出了这款无人驾驶实验平台QCar。随着无人驾驶汽车研究的深入,许多科学家和研究人员都遇到了许多挑战。其中最大的挑战就是,很难找到一个支持多种主流编程语言的无人驾驶实验平台。每个研究者所使用的编程语言不可能完全一样,因此研发出一款兼容多种编程语言的实验平台是一个必须要面临的挑战。而我们的QCar可为使用者提供多种语言开发环境,包括MATLAB®/Simulink®, Python™, TensorFlow和ROS等。很好的为使用者解决了这个巨大的挑战,使用者们无需再为研究无人车而去新学习一门语言。
其次,研发无人车所需要投入的经费成本、人力资源和时间都是非常大的,很多研发者都难以承担。Quanser的QCar可以说是一款十分成熟可靠的无人驾驶实验平台了,您可以直接使用,也可添加一些创新性的可扩展模块。这可为您节省大量的资源和时间,为您的实验研究提供可靠的助力。
除此以外,我相信我们的QCar可以快速地为您找到找到自己的正确定位,可以快速地为您验证您的研究成果,可以成为您研究路上的可靠助力。
QCar技术参数:
设备尺寸 | 39 ×19 × 20cm |
设备重量(带电池) | 2.7kg |
电池 | 3S 11.1 V LiPo (3300 mAh) |
持续运行时间 | 2小时11分(静止)、35分(行驶) |
车载计算机 | NVIDIA® Jetson™ TX2 GPU: 2 GHz quad-core ARM Cortex-A57 64-bit +2 GHz Dual-Core NVIDIA Denver2 64-bit GPU: 256 CUDA Core NVIDIA Pascal™ GPU architecture,1.3 TFLOPS (FP16) Memory: 8GB 128-bit LPDDR4 @ 1866 MHz, 59.7 GB/s |
激光测距 | 分辨率为2k-8k,频率为10-15Hz,测量范围12m |
摄像头 | Intel D435 RGBD Camera:360°2D CSI Cameras (4个160°FOV 广角镜头,21fps- 120fps) |
可扩展IO口 | 2个SPI 4个I2C 40个GPIO (digital) 4个USB 3.0 接口 1个USB 2.0 OTG port 3个串行接口 4个附加编码器(带硬件数字转速表) 4个模拟量输入,12 bit,3.3V 2个CAN 总线 8个PWM (shared with GPIO) |
网络连接 | WiFi 802.11a/b/g/n/ac 867Mbps with dual antennas 2个HDMI端口,支持双监视器 1个10/100/1000 BASE-T Ethernet |
QCar附加部分 | 前照灯、制动灯、转向信号灯和倒车灯(可控制灯光强度) 双麦克风 扬声器 LCD diagnostic monitoring, 电池电压 支持自定义指导书 |
QCar支持的Software&API:
QUARC Autonomous Software License |
Quanser APIs |
TensorFlow |
TensorRT |
Python™ 2.7 & 3 |
ROS 1 & 2 |
CUDA® |
cuDNN |
OpenCV |
Deep Stream SDK |
VisionWorks® |
VPI™ |
GStreamer |
Jetson Multimedia APIs |
Docker containers with GPU support |
Simulink® with Simulink Coder |
Simulation and virtual training environments (Gazebo, QuanserSim) |
Multi-language development supported with Quanser Stream APIs for inter-process communication |
Unreal Engine |