本次再分享一个非常强大的视觉追踪工具SAMURAI,SAMURAI是一个基于Meta推出的Segment Anything Model 2(SAM 2)的改进版本,旨在实现零样本视觉跟踪,特别关注运动感知记忆的适应性。
SAMURAI介绍
本应用是由华盛顿大学华人团队基于Meta的SAM 2的优化升级版。是 SAMURAI 的官方实现:使用运动感知记忆调整任何分段模型以实现零样本视觉跟踪
主要功能:
- 零样本视觉跟踪:无需额外训练,直接利用SAM 2.1的预训练权重进行视觉对象跟踪。
- 运动感知记忆:通过引入卡尔曼滤波器,增强对目标运动的预测能力,提高在复杂场景中的跟踪准确性。
具体使用场景:
- 复杂视频分析:适用于处理快速移动或被遮挡的目标,如体育比赛、舞蹈表演等场景中的对象跟踪。
- 实时监控:在拥挤或动态环境中,对特定目标进行实时跟踪,提升监控系统的智能化水平。
- 人机交互:在增强现实或虚拟现实应用中,实时跟踪用户或物体的运动,提高交互体验的自然性和流畅度。
SAMURAI整合包使用说明
首先到网盘内将软件压缩包下载到电脑上解压。SAMURAI无需自己训练模型,直接使用预训练模型即可。我没有打包模型文件而是做了个模型下载程序,首先运行【模型下载.exe】即可从阿里平台满速下载模型,速度非常快,等到终端窗口界面输出提示模型下载完成即可。
模型下载完成后即可双击运行【启动软件.exe】启动软件操作界面。软件支持处理视频文件和图片序列。你可以将mp4视频文件或是文件夹鼠标左键按住拖动到软件窗口里,软件会自动识别路径并填充到编辑框中。
坐标位置:你需要提供所追踪物体在视频第一帧中的坐标位置,追踪区域为方形,坐标位置的值类似:100,101,102,103。前两个值是这个区域最左上角的顶点的坐标。后两个值是这个区域的宽高尺寸。数值之间使用英文逗号“,”隔开。如果你没有相关获取视频内物体坐标位置的工具的话,你可以看我下面这篇文章参考获取视频内物体坐标位置和尺寸《使用QQ和PotPlayer确定视频中指定区域点的坐标位置和宽高尺寸》
模型选择:理论模型越大效果越好,默认使用plus模型,想要体验更大模型效果的话可以选择large。
点击开始处理按钮即可开始处理视频。等到软件处理完成后会将输出结果视频output.mp4保存到软件项目文件夹内。
处理速度主要受视频尺寸影响,视频尺寸越大处理越慢。
注意事项
开始处理后会首先占用大量CPU和内存,感觉至少应该要预留15G内存,如果内存不足会报not enough memory相关错误。
整合包只支持Windows 10或11系统
软件运行路径中不要有非英文字符和空格
使用前请先将英伟达显卡驱动更新到最新版本,否则可能会报错
建议英伟达显卡显存6G以上用户体验
零样本视觉追踪软件samurai一键启动包下载链接
https://pan.quark.cn/s/3e28d422b43a
其它下载方式: