jetson-inference环境搭建

jetson-inference环境搭建1.使用前说明2.本教程的环境版本配置如图所示:3. 开始搭建3.1下载需要的依赖3.2 下载相关源码3.3 下载相关的python模块3.4 对文件进行修改4.安装模型5.开始编译6.进行验证是否安装成功附录

1.使用前说明

本教程适用于自主搭建jetson nano的镜像,直接使用YAHBOOM版的镜像可忽略给教程。

2.本教程的环境版本配置如图所示:

image-2023040300001 如果不想自主完全搭建,可以使用我们提供好的jetson-inference压缩包,把压缩包传入到jetson orin Nano中,解压,直接从"安装模块"开始看

3. 开始搭建

3.1下载需要的依赖

3.2 下载相关源码

3.3 下载相关的python模块

3.4 对文件进行修改

编辑jetson-inference/CMakePrebuild.sh。把./download-models.sh注释掉,(前面加个#注释)如图) image-2023040300002

4.安装模型

方法1:可以执行以下的步骤

进行选择后,会自动下载模型到data/network的文件路径当中,需要科学上网才能正常下载

方法2:可以把我们提供在环境搭建的附件中找到jetson-inference需要的包,把里面的压缩包传到jetso nano 的jetson-inference/data/network里面,然后进行解压 解压命令

注释:

  1. 对于解压多个.gz文件的,用此命令: for gz in *.gz; do gunzip $gz; done
  2. 对于解压多个.tar.gz文件的,用下面命令: for tar in *.tar.gz; do tar xvf $tar; done

5.开始编译

如果中途有报错,说明源码下载不全,请回到3.2步骤多执行git submodule update --init 这行命令,或者到浏览器下载,方法可百度

 

6.进行验证是否安装成功

image-2023040300003 找到对应目录下查看output.jpg如下,会在图片上端显示识别结果。 image-2023040300004

附录

其它参考教程: 1.https://blog.csdn.net/aal779/article/details/122055432

2.https://github.com/dusty-nv/jetson-inference/blob/master/docs/building-repo-2.md