您现在的位置是:首页 > 技术教程 正文

python进阶——人工智能实时目标跟踪

admin 阅读: 2024-03-22
后台-插件-广告管理-内容页头部广告(手机)

  大家好,我是csdn的博主:lqj_本人

这是我的个人博客主页:lqj_本人的博客_CSDN博客-微信小程序,前端,vue领域博主lqj_本人擅长微信小程序,前端,vue,等方面的知识https://blog.csdn.net/lbcyllqj?spm=1000.2115.3001.5343

%20 %20

哔哩哔哩欢迎关注:小淼前端

%20 %20

小淼前端的个人空间_哔哩哔哩_bilibili

%20 %20

本篇文章主要讲述python的人工智能目标跟踪,本篇文章已经成功收录到我们python专栏中:https://blog.csdn.net/lbcyllqj/category_12089557.htmlhttps://blog.csdn.net/lbcyllqj/category_12089557.html

目录

前言

项目介绍

区域性锁定目标实时动态跟踪(适用 警方追捕,无人机锁定拍摄等)

首先先介绍几种AI视觉算法

详细代码讲解

完整代码及注释:

结果演示

区域性全部实时动态目标跟踪(适用夜视跟踪,范围性观察等)

思路构建

详细代码讲解

完整代码及注释:

结果显示


前言

本程序主要实现了python的opencv人工智能视觉模块的目标跟踪功能。

若不知道怎么安装opencv或者使用的请看我的这篇文章(曾上过csdn综合热榜的top1):

python进阶——人工智能视觉识别_lqj_本人的博客-CSDN博客

项目介绍

区域性锁定目标实时动态跟踪(适用 警方追捕,无人机锁定拍摄等)

 首先先介绍几种AI视觉算法

特性:

1.BOOSTING:算法原理类似于Harr cascdes(AdaBoost),是一种很老的算法。这个算法速度慢并且不准。

2.MIL:比BOOSTING准一点

3.KCF:速度比BOOSTING和MIL更快,与BOOSTING和MIL一样不能很好的处理遮挡问题。

4.CSRT:比KCF更准一些,但是速度比KCF慢

5.MedianFlow:对于快速移动的目标和外形比那花迅速的目标效果不好

6.TLD:会产生朵的false-posittives

7.MOSSE:算法速度非常快,但是准确率比不上KCF和CSRT,在一些追求算法的速度场合很适用

8.GOTURN:OpenCV中自带的唯一一个基于深度学习的算法,运行短发需要提前下载好模型文件

分别对应的伴生的函数:

  1. kcf:cv2.legacy.TrackerKCF_create
  2. csrt:cv2.legacy.TrackerCSRT_create
  3. boosting:cv2.legacy.TrackerBoosting_create
  4. mil:cv2.legacy.TrackerMIL_create
  5. tld:cv2.legacy.TrackerTLD_create
  6. medianflow:cv2.legacy.TrackerMedianFlow_create
  7. mosse:cv2.legacy.TrackerMOSSE_create

详细代码讲解

导入cv模块

import cv2

使用csrt算法,引用伴生函数,并赋值给tracker

tracker = cv2.legacy.TrackerCSRT_create()

读取视频流

cap = cv2.VideoCapture('11.mp4')

先读取到第一帧

ret,frame = cap.read()

使用selectROI(前景),画框将目标框起,并赋值给bbox

bbox = cv2.selectROI('A',frame,fromCenter=False,showCrosshair=True)

初始化tracker,将上面的两个值传入

tracker.init(frame,bbox)

读取每一帧

ret,frame = cap.read()

根据每一帧来更新tracker

ok,box = tracker.update(frame)

若读取成功,就定位画框,并跟随

  1. if ok :
  2. (x,y,w,h) = [int(v) for v in box]
  3. cv2.rectangle(frame,pt1=(int(x),int(y)),pt2=(int(x)+int(w),int(y)+int(h)),color=(0,255,0),thickness=2)

显示视频流

cv2.imshow('A', frame)

等待50毫秒或按空格键退出

  1. if cv2.waitKey(50) == ord(' '):
  2. break

 释放视频流和释放窗口

  1. cap.release()
  2. cv2.destroyAllWindows()

完整代码及注释:

  1. import cv2
  2. tracker = cv2.legacy.TrackerCSRT_create()#使用csrt算法,引用伴生函数,并赋值给tracker
  3. cap = cv2.VideoCapture('11.mp4')#读取视频流
  4. ret,frame = cap.read()#先读取第一帧
  5. bbox = cv2.selectROI('A',frame,fromCenter=False,showCrosshair=True)#使用selectROI(前景),画框将目标框起,并赋值给bbox
  6. tracker.init(frame,bbox)#初始化tracker,将上面的两个值传入
  7. while True:
  8. ret,frame = cap.read()#读取每一帧
  9. ok,box = tracker.update(frame)#根据每一帧来跟新tracker
  10. # 若读取成功,我们就定位画框,并跟随
  11. if ok :
  12. (x,y,w,h) = [int(v) for v in box]
  13. cv2.rectangle(frame,pt1=(int(x),int(y)),pt2=(int(x)+int(w),int(y)+int(h)),color=(0,255,0),thickness=2)
  14. cv2.imshow('A', frame)#显示视频流
  15. if cv2.waitKey(50) == ord(' '):#等待50毫秒或键盘按空格键退出
  16. break
  17. # 释放视频流,释放窗口
  18. cap.release()
  19. cv2.destroyAllWindows()

结果演示

区域性全部实时动态目标跟踪(适用夜视跟踪,范围性观察等)

思路构建

1.先将实时摄像流或录制视频流,灰度转化并高斯模糊

2.用二值化算法将流中的物体轮廓扩充

3.分别先读到第一帧和第二帧,让其对比

4.寻找对比后,流的轮廓位置,并开启简易模式

5.过滤物体的矩阵轮廓将其定位绘出

详细代码讲解

导入cv模块

import cv2

将视频流转换并让其高斯模糊

  1. gray = cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY)
  2. blur = cv2.GaussianBlur(gray,(5,5),0)

二值化扩充

  1. _,thresh = cv2.threshold(blur,20,255,cv2.THRESH_BINARY)
  2. dilated = cv2.dilate(thresh,None,iterations=3)
  3. return dilated

读取视频流或实时摄像流

cap = cv2.VideoCapture('11.mp4')

读取第一帧

ret,frame1 = cap.read()

读取第二帧

ret,frame2 = cap.read()

判断cap是否为打开状态

while cap.isOpened():

若为打开,则第一帧与第二帧比较

  1. diff = cv2.absdiff(frame1,frame2)
  2. mask = filter_img(diff)

寻找比较后的物体轮廓,并开启简易模式

contours,_ = cv2.findContours(mask,cv2.RETR_TREE,cv2.CHAIN_APPROX_SIMPLE)

使用方框将视频流中的物体框出,得到矩阵的宽高

(x,y,w,h) = cv2.boundingRect(contour)

若矩阵的面积小于10(根据视频流中物体的大小来定义),直接无视

if cv2.contourArea(contour) < 10:

将过滤的物体的矩阵轮廓绘出(一定要用int整形)

cv2.rectangle(frame1,pt1=(int(x),int(y)),pt2=(int(x)+int(w),int(y)+int(h)),color=(0,255,0),thickness=1)

将第一帧显示

cv2.imshow('A',frame1)

将上面赋值的mask显示

cv2.imshow('B',mask)

实现前后帧对比,并定位物体运动轨迹

1.将第二帧赋值给第一帧

frame1 = frame2

2.再将cap读到的赋值给第二帧()

ret,frame2 = cap.read()

等待50毫秒或者按空格结束

  1. if cv2.waitKey(50) == ord(' '):
  2. break

释放视频流及释放窗口

  1. cap.release()
  2. cv2.destroyAllWindows()

 完整代码及注释:

  1. import cv2
  2. def filter_img(frame):
  3. #将视频流转换灰度并让其高斯模糊
  4. gray = cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY)
  5. blur = cv2.GaussianBlur(gray,(5,5),0)
  6. #二值化将其扩充
  7. _,thresh = cv2.threshold(blur,20,255,cv2.THRESH_BINARY)
  8. dilated = cv2.dilate(thresh,None,iterations=3)
  9. return dilated
  10. # 读取视频流
  11. cap = cv2.VideoCapture('11.mp4')
  12. ret,frame1 = cap.read()#读到第一帧
  13. ret,frame2 = cap.read()#读到第二帧
  14. while cap.isOpened():#判断cap是否打开
  15. diff = cv2.absdiff(frame1,frame2)#若打开,则第一帧和第二帧作比较
  16. mask = filter_img(diff)
  17. contours,_ = cv2.findContours(mask,cv2.RETR_TREE,cv2.CHAIN_APPROX_SIMPLE)#寻找视频流的轮廓,简单模式
  18. #用方框将视频流中的物体用矩形框出
  19. for contour in contours:
  20. (x,y,w,h) = cv2.boundingRect(contour)#得到矩阵的宽高
  21. if cv2.contourArea(contour) < 10:#若矩阵的面积小于200,就无视(太小了)
  22. continue
  23. cv2.rectangle(frame1,pt1=(int(x),int(y)),pt2=(int(x)+int(w),int(y)+int(h)),color=(0,255,0),thickness=1)#将过滤的物体的矩阵轮廓绘出
  24. # cv2.drawContours(frame1,contours,-1,(0,255,0),2)#将视频流中的物体轮廓画出
  25. cv2.imshow('A',frame1)#将第一帧显示
  26. cv2.imshow('B',mask)#将mask也显示
  27. frame1 = frame2#将第二帧赋值给第一帧
  28. ret,frame2 = cap.read()#再将cap读到的赋值给第二帧
  29. if cv2.waitKey(50) == ord(' '):#等待五十毫秒或者按空格结束
  30. break
  31. #销毁cap流
  32. cap.release()
  33. #释放窗口
  34. cv2.destroyAllWindows()

结果显示

标签:
声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

在线投稿:投稿 站长QQ:1888636

后台-插件-广告管理-内容页尾部广告(手机)
关注我们

扫一扫关注我们,了解最新精彩内容

搜索