-
Notifications
You must be signed in to change notification settings - Fork 19
/
app.py
232 lines (191 loc) · 10.2 KB
/
app.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
from ultralytics import YOLO
import cv2
import numpy as np
import tempfile
from pathlib import Path
from tqdm.auto import tqdm
import deep_sort.deep_sort.deep_sort as ds
import gradio as gr
# 控制处理流程是否终止
should_continue = True
def get_detectable_classes(model_file):
"""获取给定模型文件可以检测的类别。
参数:
- model_file: 模型文件名。
返回:
- class_names: 可检测的类别名称。
"""
model = YOLO(model_file)
class_names = list(model.names.values()) # 直接获取类别名称列表
del model # 删除模型实例释放资源
return class_names
# 用于终止视频处理
def stop_processing():
global should_continue
should_continue = False # 更改变量来停止处理
return "尝试终止处理..."
# 用于开始视频处理
# gr.Progress(track_tqdm=True)用于捕获tqdm进度条,从而在GUI上显示进度
def start_processing(input_path, output_path, detect_class, model, progress=gr.Progress(track_tqdm=True)):
global should_continue
should_continue = True
detect_class = int(detect_class)
model = YOLO(model)
tracker = ds.DeepSort("deep_sort/deep_sort/deep/checkpoint/ckpt.t7")
output_video_path = detect_and_track(input_path, output_path, detect_class, model, tracker)
return output_video_path, output_video_path
def putTextWithBackground(
img,
text,
origin,
font=cv2.FONT_HERSHEY_SIMPLEX,
font_scale=1,
text_color=(255, 255, 255),
bg_color=(0, 0, 0),
thickness=1,
):
"""绘制带有背景的文本。
:param img: 输入图像。
:param text: 要绘制的文本。
:param origin: 文本的左上角坐标。
:param font: 字体类型。
:param font_scale: 字体大小。
:param text_color: 文本的颜色。
:param bg_color: 背景的颜色。
:param thickness: 文本的线条厚度。
"""
# 计算文本的尺寸
(text_width, text_height), _ = cv2.getTextSize(text, font, font_scale, thickness)
# 绘制背景矩形
bottom_left = origin
top_right = (origin[0] + text_width, origin[1] - text_height - 5) # 减去5以留出一些边距
cv2.rectangle(img, bottom_left, top_right, bg_color, -1)
# 在矩形上绘制文本
text_origin = (origin[0], origin[1] - 5) # 从左上角的位置减去5来留出一些边距
cv2.putText(
img,
text,
text_origin,
font,
font_scale,
text_color,
thickness,
lineType=cv2.LINE_AA,
)
def extract_detections(results, detect_class):
"""
从模型结果中提取和处理检测信息。
- results: YoloV8模型预测结果,包含检测到的物体的位置、类别和置信度等信息。
- detect_class: 需要提取的目标类别的索引。
参考: https://docs.ultralytics.com/modes/predict/#working-with-results
"""
# 初始化一个空的二维numpy数组,用于存放检测到的目标的位置信息
# 如果视频中没有需要提取的目标类别,如果不初始化,会导致tracker报错
detections = np.empty((0, 4))
confarray = [] # 初始化一个空列表,用于存放检测到的目标的置信度。
# 遍历检测结果
# 参考:https://docs.ultralytics.com/modes/predict/#working-with-results
for r in results:
for box in r.boxes:
# 如果检测到的目标类别与指定的目标类别相匹配,提取目标的位置信息和置信度
if box.cls[0].int() == detect_class:
x1, y1, x2, y2 = box.xywh[0].int().tolist() # 提取目标的位置信息,并从tensor转换为整数列表。
conf = round(box.conf[0].item(), 2) # 提取目标的置信度,从tensor中取出浮点数结果,并四舍五入到小数点后两位。
detections = np.vstack((detections, np.array([x1, y1, x2, y2]))) # 将目标的位置信息添加到detections数组中。
confarray.append(conf) # 将目标的置信度添加到confarray列表中。
return detections, confarray # 返回提取出的位置信息和置信度。
# 视频处理
def detect_and_track(input_path: str, output_path: str, detect_class: int, model, tracker) -> Path:
"""
处理视频,检测并跟踪目标。
- input_path: 输入视频文件的路径。
- output_path: 处理后视频保存的路径。
- detect_class: 需要检测和跟踪的目标类别的索引。
- model: 用于目标检测的模型。
- tracker: 用于目标跟踪的模型。
"""
global should_continue
cap = cv2.VideoCapture(input_path) # 使用OpenCV打开视频文件。
if not cap.isOpened(): # 检查视频文件是否成功打开。
print(f"Error opening video file {input_path}")
return None
total_frames = int(cap.get(cv2.CAP_PROP_FRAME_COUNT)) # 获取视频总帧数
fps = cap.get(cv2.CAP_PROP_FPS) # 获取视频的帧率
size = (int(cap.get(cv2.CAP_PROP_FRAME_WIDTH)), int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))) # 获取视频的分辨率(宽度和高度)。
output_video_path = Path(output_path) / "output.avi" # 设置输出视频的保存路径。
# 设置视频编码格式为XVID格式的avi文件
# 如果需要使用h264编码或者需要保存为其他格式,可能需要下载openh264-1.8.0
# 下载地址:https://github.com/cisco/openh264/releases/tag/v1.8.0
# 下载完成后将dll文件放在当前文件夹内
fourcc = cv2.VideoWriter_fourcc(*"XVID")
output_video = cv2.VideoWriter(output_video_path.as_posix(), fourcc, fps, size, isColor=True) # 创建一个VideoWriter对象用于写视频。
# 对每一帧图片进行读取和处理
# 使用tqdm显示处理进度。
for _ in tqdm(range(total_frames)):
# 如果全局变量should_continue为False(通常由于GUI上按下Stop按钮),则终止目标检测和跟踪,返回已处理的视频部分
if not should_continue:
print('stopping process')
break
success, frame = cap.read() # 逐帧读取视频。
# 如果读取失败(或者视频已处理完毕),则跳出循环。
if not (success):
break
# 使用YoloV8模型对当前帧进行目标检测。
results = model(frame, stream=True)
# 从预测结果中提取检测信息。
detections, confarray = extract_detections(results, detect_class)
# 使用deepsort模型对检测到的目标进行跟踪。
resultsTracker = tracker.update(detections, confarray, frame)
for x1, y1, x2, y2, Id in resultsTracker:
x1, y1, x2, y2 = map(int, [x1, y1, x2, y2]) # 将位置信息转换为整数。
# 绘制bounding box和文本
cv2.rectangle(frame, (x1, y1), (x2, y2), (255, 0, 255), 3)
putTextWithBackground(frame, str(int(Id)), (max(-10, x1), max(40, y1)), font_scale=1.5, text_color=(255, 255, 255), bg_color=(255, 0, 255))
output_video.write(frame) # 将处理后的帧写入到输出视频文件中。
output_video.release() # 释放VideoWriter对象。
cap.release() # 释放视频文件。
print(f'output dir is: {output_video_path}')
return output_video_path
if __name__ == "__main__":
# YoloV8、V9官方模型列表,从左往右由小到大,第一次使用会自动下载
model_list = ["yolov9c.pt", "yolov9e", "yolov8n.pt", "yolov8s.pt", "yolov8m.pt", "yolov8l.pt", "yolov8x.pt"]
# 获取YoloV8模型可以检测的所有类别,默认调用model_list中第一个模型
detect_classes = get_detectable_classes(model_list[0])
# gradio界面的输入示例,包含一个测试视频文件路径、一个随机生成的输出目录、检测的类别、使用的模型
examples = [["test.mp4", tempfile.mkdtemp(), detect_classes[0], model_list[0]],]
# 使用Gradio的Blocks创建一个GUI界面
# Gradio参考文档:https://www.gradio.app/guides/blocks-and-event-listeners
with gr.Blocks() as demo:
with gr.Tab("Tracking"):
# 使用Markdown显示文本信息,介绍界面的功能
gr.Markdown(
"""
# 目标检测与跟踪
基于opencv + YoloV8 + deepsort
"""
)
# 行容器,水平排列元素
with gr.Row():
# 列容器,垂直排列元素
with gr.Column():
input_path = gr.Video(label="Input video") # 视频输入控件,用于上传视频文件
model = gr.Dropdown(model_list, value=0, label="Model") # 下拉菜单控件,用于选择模型
detect_class = gr.Dropdown(detect_classes, value=0, label="Class", type='index') # 下拉菜单控件,用于选择要检测的目标类别
output_dir = gr.Textbox(label="Output dir", value=tempfile.mkdtemp()) # 文本框控件,用于指定输出视频的保存路径,默认为一个临时生成的目录
with gr.Row():
# 创建两个按钮控件,分别用于开始处理和停止处理
start_button = gr.Button("Process")
stop_button = gr.Button("Stop")
with gr.Column():
output = gr.Video() # 视频显示控件,展示处理后的输出视频
output_path = gr.Textbox(label="Output path") # 文本框控件,用于显示输出视频的文件路径
# 添加示例到GUI中,允许用户选择预定义的输入进行快速测试
gr.Examples(examples,label="Examples",
inputs=[input_path, output_dir, detect_class, model],
outputs=[output, output_path],
fn=start_processing, # 指定处理示例时调用的函数
cache_examples=False) # 禁用示例缓存
# 将按钮与处理函数绑定
start_button.click(start_processing, inputs=[input_path, output_dir, detect_class, model], outputs=[output, output_path])
stop_button.click(stop_processing)
demo.launch()