jetson-nano初上手笔记
2020-11-27
简单用jetson nano跑起官方demo,在官方的视频教程中有更详细的说明。
需要硬件:
- Jetson Nano本体
- 能支持5V/3A的QC快充电源适配器、USB-TYPEA转TYPEC电源线
- 一张至少32GB的TF卡(推荐64GB)、读卡器
必要的基础知识和经验:
- 解决国内糟糕网络问题的代理经验
- 一些unix命令行使用经验
环境布置
开箱后,烧TF卡、桌面环境配置参考手册,玩过树莓派的朋友估计很熟悉这流程了,开机,接HDMI之后就可以开始拖仓库了:
1 | $ git clone --recursive https://github.com/dusty-nv/jetson-inference |
这里有两种选择,使用Docker或者
Fork1. 使用Docker作为开发环境
相关文档:https://github.com/dusty-nv/jetson-inference/blob/master/docs/aux-docker.md
使用Docker环境的好处是无需配置太多环境,官方帮你准备好了,但感觉不是太灵活。
进入docker环境:
1 | cd jetson-inference |
这里会让你选需要下载的预训练模型,下载一堆东西。
Fork2. 直接编译到当前环境
1 | cd jetson-inference |
Tips
有第三方提供了源,使用方法,修改脚本内的下载链接:
1 | $ sed -in-place -e 's@https://nvidia.box.com/shared/static@https://bbs.gpuworld.cn/mirror@g' tools/download-models.sh |
但在使用过程中,有部分包下载下来是坏(提示不是ZIp档),把部分链接手动恢复回来即可(请灵活使用git diff
命令查看变更)
跑个测试DEMO
要用到摄像头,这里在一台Android手机上安装了RTSP Camera Server
当视频源,测试:
1 | cd build/aarch64/bin |
跑目标检测网络:
1 | $ ./detectnet rtsp://192.168.99.100:5554/camera display://0 --input-codec h264 |