一种基于YOLO算法的水声被动跟踪多目标的方法

allin2024-08-23  240


一种基于yolo算法的水声被动跟踪多目标的方法
技术领域
1.本发明涉及水声目标被动跟踪领域,具体指一种基于yolo算法的水声目标被动跟踪方法。


背景技术:

2.水声目标被动跟踪是水声工程和声纳信号处理中重要的研究方向。利用被动声纳跟踪多个水声目标是一项极具挑战性的任务:从每次时间序列中识别目标,估计目标的状态和位置,准确关联多个目标数据。这个问题对于实现多目标跟踪具有重要的应用价值,已经得到了广泛的研究。尽管在过去做了大量的努力,仍然存在一下问题。
3.近年来,深度学习被广泛应用于语音识别,声音分类等领域,通常将声音类型的数据转换为图片或伪彩图格式的数据用于检测识别。但是以往的模型一个输入数据只能预测一个目标,并且对于输入数据的要求比较严格,不能有严重的遮掩或包含多个目标。但是通常接收到的水声信号中,多个目标的信号是混合在一起的,在频域、时域或二者皆有,这大大增加了使用深度学习来跟踪多目标的难度。


技术实现要素:

4.本发明的目的是克服上述现有技术的不足,提供一种基于yolo算法的水声目标被动跟踪方法,不仅能够在同一个输入中识别多个目标,还能够在不同目标的出现重叠时,准确标识不同的目标。
5.为了解决上述技术问题,本发明的技术方案为:
6.一种基于yolo算法的水声目标被动跟踪方法,步骤包括:
7.s1、获取多波束lofar谱图;
8.s2、通过yolo神经网络模型对多波束lofar谱图进行检测,得到不同目标的频率范围和目标的方位方位中心;
9.s3、确定目标的方位波束指向角和目标的数据关联;
10.s4、通过分裂波束形成,进一步的求出目标的方位波束指向角目标的精确方位角;
11.s5、对目标的精确方位角进行滤波估计,进而进行k时刻目标的状态估计;
12.s6、重复s1-s6,更新跟踪信息。
13.作为优选,所述步骤s1中,所述多波束lofar谱图通过接收到的声呐阵列数据,采用波束形成。
14.作为优选,所述步骤s1中,接收到的声呐阵列数据通过波束形成还能获取方位能量分布图。
15.作为优选,所述步骤s2中,利用yolo神经网络模型检测s1中获得的一帧多波束lofar谱图,根据预测结果,获得不同目标的频率方位的边界框的坐标,所述边界框中包含不同目标的置信度和目标的预测概率;进而计算出不同目标的频率范围和目标的方位范围中心。
16.作为优选,所述步骤s3中,所述目标方位波束指向角通过不同目标的频率范围和目标的方位范围中心以及方位能量分布图确定。
17.作为优选,所述步骤s3中,所述目标数据关联为航迹归属,所述航机归属由预测的边界框中包含不同目标的置信度和边界框中各类目标的预测概率确定。
18.作为优选,所述步骤s1中多波束lofar谱图的生成方法为:
19.对于任意平面拓扑结构的声呐阵列接收水声信号,其中包含未知数量和方位的目标:
20.s1-1、将待检测方位按照等值划分,划分为若干个波束方位,即为波束指向角;
21.s1-2、采用频域宽带波束形成,将输入帧的阵列时域数据转换为阵列频域数据;计算谱线分辨率;
22.s1-3、确定首阵元,作为基准阵元,计算其余阵元相对于基准阵元的时延,并遍历所有的波束指向角,获得时延矩阵;
23.s1-4、根据s1-3的时延矩阵和s1-2的谱线分辨率,计算频域宽带波束形成加权向量矩阵;
24.s1-5、将s1-4获得的加权向量矩阵与阵列频域信号相乘,生成方位频率二维矩阵,即多波束lofar数据,采用色域映射,生成一帧多波束lofar谱图。
25.作为优选,所述方位能量分布图的生成方法为:
26.通过s1-5中得到的多波束lofar数据,进行平方累加,获得所有波束指向角的方位能量。
27.作为优选,所述步骤s2中,所述yolo神经网络模型为卷积神经网络:
28.s2-1、yolo的卷积神经网络将输入的图片分割成n*n的网格,然后每个单元格负责去检测那些中心点落在该格子内的目标;
29.s2-2、每个单元格会预测b个边界框以及边界框的置信度,即含有目标的可能性大小和这个边界框的准确度;
30.s2-3、每个边界框的预测值实际上包含5个元素:(x,y,w,h,c),其中前4个表征边界框的大小与位置,而最后一个值是置信度;计算映射变换,将边界框的大小和位置转换为目标频率范围和目标方位范围,并求出目标方位范围中心。
31.作为优选,所述分裂波束形成方法为:
32.s4-1、将声呐阵列分为两个左右两个子阵,即将s1-2中得到的阵列频域数据分为两个子阵的数据,计算两个子阵的中心距离;
33.s4-2、计算左右两个子阵在目标波束指向角方向的加权向量矩阵;计算左右两个子阵在目标波束指向角方向的波束输出序列;
34.s4-3、计算左右两个子阵的波束输出序列的互功率谱,并计算得到相位差;
35.s4-4、求出相位估计值,并以此求出目标精确方位角度。
36.本发明具有以下的特点和有益效果:
37.采用上述技术方案,将声音数据转化为多波束lofar谱图,应用yolo算法进行检测。相对于现有技术来说,优势在于:
38.能够在不单独提取目标信号的前提下,在同一帧输入数据中识别出多个目标,并输出目标的频率范围和方位范围,
39.无论是多目标在频率范围上出现重叠还是在方位上出现重叠,都能够识别出不同目标的方位;
40.yolo算法在检测多目标时,给出不同目标的预测概率,可用于数据关联,相较于现有的数据关联方法,其准确度更高。
附图说明
41.为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
42.图1是基于yolo算法的水声被动跟踪多目标的流程图。
43.图2是多波束lofar谱图示意图。
44.图3是方位能量分布图示意图。
45.图4是yolo模型检测结果的示意图。
具体实施方式
46.需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
47.在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”等的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
48.在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以通过具体情况理解上述术语在本发明中的具体含义。
49.本发明提供了一种基于yolo算法的水声目标被动跟踪方法,如图1所示,步骤包括:
50.s1、获取多波束lofar谱图;
51.s2、通过yolo神经网络模型对多波束lofar谱图进行检测,得到不同目标的频率范围和目标的方位方位中心;
52.s3、确定目标的方位波束指向角和目标的数据关联;
53.s4、通过分裂波束形成,进一步的求出目标方位波束指向角目标的精确方位角;
54.s5、对目标精确方位角进行滤波估计,进而进行k时刻目标的状态估计;
55.s6、重复s1-s6,更新跟踪信息。
56.采用上述技术方案,将声音数据转化为多波束lofar谱图,应用yolo算法进行检测。相对于现有技术来说,优势在于:
57.能够在不单独提取目标信号的前提下,在同一帧输入数据中识别出多个目标,并输出目标的频率范围和方位范围,
58.无论是多目标在频率范围上出现重叠还是在方位上出现重叠,都能够识别出不同目标的方位;
59.yolo算法在检测多目标时,给出不同目标的预测概率,可用于数据关联,相较于现有的数据关联方法,其准确度更高。
60.本发明的进一步设置,所述步骤s1中,所述多波束lofar谱图通过接收到的声呐阵列数据,采用波束形成,接收到的声呐阵列数据通过波束形成还能获取方位能量分布图。
61.具体的,如图2所示,所述多波束lofar谱图的生成方法为:
62.采用的声纳阵列为m行n列的均匀分布的平面阵,其中m为2,n为32,行间距为0.1m,列间距为0.25m;声呐阵列接收水声信号,其中包含未知数量和方位的目标:
63.s1-1、将左右两个舷侧的方位,每个舷侧均采用正弦等值划分方法,将-1 到1均值等分为64份,然后求反正弦值,得到波束指向角序列[θ1,θ2,

,θs];
[0064]
s1-2、采用频域宽带波束形成,将输入的一帧时长1s的阵列时域数据xi(t)转换为阵列频域数据xi(f);计算谱线分辨率δf;
[0065]
s1-3、确定首阵元,作为基准阵元,计算其余阵元相对于基准阵元的时延δt(i,θs)=disinθs/υc,并遍历所有的波束指向角,获得时延矩阵;其中,di是其余阵元到基准阵元的距离,υc是声速,θs为波束指向角。
[0066]
s1-4、根据s13的时延矩阵和s12的谱线分辨率,计算频域宽带波束形成加权向量矩阵w(i,θs,f)=exp(j2πfδt(i,θs));
[0067]
s1-5、将s1-4获得的加权向量矩阵与阵列频域信号相乘,生成方位频率二维矩阵,即多波束lofar数据b(θs),
[0068]
b(θs)=w(i,θs,f)xi(f)/mn
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(1)
[0069]
采用色域映射,生成一帧多波束lofar谱图。
[0070]
具体的,如图3所示,方位能量分布图的生成方法为:
[0071]
根据s1-5得到的多波束lofar数据,通过平方累加,获得所有波束指向角的方位能量。
[0072]
本发明的进一步设置,所述步骤s2中,利用yolo神经网络模型检测s1 中获得的一帧多波束lofar谱图,根据预测结果,获得不同目标的频率方位的边界框的坐标,所述边界框中包含不同目标的置信度和目标的预测概率;进而计算出不同目标的频率范围和目标的方位范围中心。
[0073]
具体的,如图4所示,所述yolo神经网络模型为卷积神经网络:
[0074]
s2-1、yolo的卷积神经网络将输入的图片分割成7*7的网格,然后每个单元格负责去检测那些中心点落在该格子内的目标;
[0075]
s2-2、每个单元格会预测5个边界框以及边界框的置信度,即含有目标的可能性大小和这个边界框的准确度;
[0076]
s2-3、每个边界框的预测值实际上包含5个元素:(x,y,w,h,c),其中前4个表征边界框的大小与位置,而最后一个值是置信度;计算映射变换,将边界框的大小和位置转换为目标的频率范围和方位范围,并求出方位范围中心。
[0077]
本发明的进一步设置,所述步骤s3中,所述目标方位波束指向角通过不同的目标频率范围和目标方位范围中心以及方位能量分布图确定,所述目标数据关联为航迹归属,所述航机归属由预测的边界框中包含不同目标的置信度和边界框中各类目标的预测概率确定。
[0078]
具体的,所述确定目标方位波束指向角的方法:
[0079]
s3-1、对比不同目标的方位范围中心和方位能量分布图,对方位能量分布图中的极大值位置,根据多假设原则,为不同的目标关联波束指向角;
[0080]
s3-2、根据s2预测的该范围内的各类目标的预测概率,关联数据,确定目标的航迹归属,目标方位测量信息和目标类别进行对应。
[0081]
本发明的进一步设置,所述分裂波束形成方法为:
[0082]
s4-1、将声呐阵列分为两个左右两个子阵,即将s1-2中得到的阵列频域数据分为两个子阵的数据,计算两个子阵的中心距离;
[0083]
s4-2、计算左右两个子阵在目标波束指向角方向的加权向量矩阵;计算左右两个子阵在目标波束指向角方向的波束输出序列;
[0084]
s4-3、计算左右两个子阵的波束输出序列的互功率谱,并计算得到相位差;
[0085]
s4-4、求出相位估计值,并以此求出目标精确方位角度。
[0086]
具体的,
[0087]
所述步骤s4-1中,
[0088]
将声呐阵列分为两个左右两个子阵,2个子阵分别选择第1个和第m/2+1个阵元作为等效阵元,因此等效阵元间距为d

=md/2;s12中得到的阵列频域数据分为两个子阵的数据;
[0089]
所述步骤s4-2中,
[0090]
计算左右两个子阵在目标波束指向角方向的加权向量矩阵,上述2个子阵的权向量同为w(i,θs,f)=exp(j2πfδt(i,θs));计算左右两个子阵在目标波束指向角方向的波束输出序列;
[0091][0092]
所述步骤s4-3中,
[0093]
计算左右两个子阵的波束输出序列的互功率谱,式(2)中两组频域输出在频率为f处有如下关系:
[0094][0095]
在频率f处的互功率谱:
[0096][0097]
并计算得到相位差,
[0098][0099]
所述步骤s4-4中,
[0100]
求出相位估计值,
[0101][0102]
并以此求出目标的方位角度
[0103][0104]
本发明的进一步设置,所述步骤s5中,采用卡尔曼滤波,对目标的方位进行滤波估计,并预测下一时刻的目标状态。
[0105]
可以理解的,通过卡尔曼滤波可滤去系统中的噪音和干扰,进而还原真是数据,进而有效的提高了对目标范围估计的精度,以及预测下一时刻的目标状态的精确度。
[0106]
本发明的进一步设置,所述步骤s6中,重复s1-s5,更新跟踪信息,其方位跟踪的结果。
[0107]
可以理解的,通过重复步骤s1-s5,通过不断对跟踪信息进行迭代更新,随着更新迭代的次数不断增加,方位跟踪的精度也随之呈正比的增加。
[0108]
以上结合附图对本发明的实施方式作了详细说明,但本发明不限于所描述的实施方式。对于本领域的技术人员而言,在不脱离本发明原理和精神的情况下,对这些实施方式包括部件进行多种变化、修改、替换和变型,仍落入本发明的保护范围内。

技术特征:
1.一种基于yolo算法的水声目标被动跟踪方法,其特征在于,步骤包括:s1、获取多波束lofar谱图;s2、通过yolo神经网络模型对多波束lofar谱图进行检测,得到不同目标的频率范围和方位方位中心;s3、确定目标的方位波束指向角和目标的数据关联;s4、通过分裂波束形成,进一步的求出目标的方位波束指向角的目标的精确方位角;s5、对目标的精确方位角进行滤波估计,进而进行k时刻目标的状态估计;s6、重复s1-s6,更新跟踪信息。2.根据权利要求1所述的基于yolo算法的水声目标被动跟踪方法,其特征在于,所述步骤s1中,所述多波束lofar谱图通过接收到的声呐阵列数据,采用波束形成。3.根据权利要求1所述的基于yolo算法的水声目标被动跟踪方法,其特征在于,所述步骤s1中,接收到的声呐阵列数据通过波束形成还能获取方位能量分布图。4.根据权利要求3所述的基于yolo算法的水声目标被动跟踪方法,其特征在于,所述步骤s2中,利用yolo神经网络模型检测s1中获得的一帧多波束lofar谱图,根据预测结果,获得不同目标的频率方位的边界框的坐标,所述边界框中包含不同目标的置信度和目标的预测概率;进而计算出不同目标的频率范围和目标的方位范围中心。5.根据权利要求4所述的基于yolo算法的水声目标被动跟踪方法,其特征在于,所述步骤s3中,所述目标的方位波束指向角通过不同目标的频率范围和目标的方位范围中心以及方位能量分布图确定。6.根据权利要求4所述的基于yolo算法的水声目标被动跟踪方法,其特征在于,所述步骤s3中,所述目标的数据关联为航迹归属,所述航机归属由预测的边界框中包含不同目标的置信度和边界框中各类目标的预测概率确定。7.根据权利要求1-6任意一项所述的基于yolo算法的水声目标被动跟踪方法,其特征在于,所述步骤s1中多波束lofar谱图的生成方法为:对于任意平面拓扑结构的声呐阵列接收水声信号,其中包含未知数量和方位的目标:s1-1、将待检测方位按照等值划分,划分为若干个波束方位,即为波束指向角;s1-2、采用频域宽带波束形成,将输入帧的阵列时域数据转换为阵列频域数据;计算谱线分辨率;s1-3、确定首阵元,作为基准阵元,计算其余阵元相对于基准阵元的时延,并遍历所有的波束指向角,获得时延矩阵;s1-4、根据s1-3的时延矩阵和s1-2的谱线分辨率,计算频域宽带波束形成加权向量矩阵;s1-5、将s1-4获得的加权向量矩阵与阵列频域信号相乘,生成方位频率二维矩阵,即多波束lofar数据,采用色域映射,生成一帧多波束lofar谱图。8.根据权利要求7所述的基于yolo算法的水声目标被动跟踪方法,其特征在于,所述方位能量分布图的生成方法为:通过s1-5中得到的多波束lofar数据,进行平方累加,获得所有波束指向角的方位能量。9.根据权利要求1-6任意一项所述的基于yolo算法的水声目标被动跟踪方法,其特征
在于,所述步骤s2中,所述yolo神经网络模型为卷积神经网络:s2-1、yolo的卷积神经网络将输入的图片分割成n*n的网格,然后每个单元格负责去检测那些中心点落在该格子内的目标;s2-2、每个单元格会预测b个边界框以及边界框的置信度,即含有目标的可能性大小和这个边界框的准确度;s2-3、每个边界框的预测值实际上包含5个元素:(x,y,w,h,c),其中前4个表征边界框的大小与位置,而最后一个值是置信度;计算映射变换,将边界框的大小和位置转换为目标频率范围和目标方位范围,并求出目标方位范围中心。10.根据权利要求7所述的基于yolo算法的水声目标被动跟踪方法,其特征在于,所述分裂波束形成方法为:s4-1、将声呐阵列分为两个左右两个子阵,即将s1-2中得到的阵列频域数据分为两个子阵的数据,计算两个子阵的中心距离;s4-2、计算左右两个子阵在目标波束指向角方向的加权向量矩阵;计算左右两个子阵在目标波束指向角方向的波束输出序列;s4-3、计算左右两个子阵的波束输出序列的互功率谱,并计算得到相位差;s4-4、求出相位估计值,并以此求出目标的精确方位角度。

技术总结
本发明公开了一种基于YOLO算法的水声目标被动跟踪方法,步骤包括:S1、获取多波束LOFAR谱图;S2、通过YOLO神经网络模型对多波束LOFAR谱图进行检测,得到不同目标的频率范围和目标的方位方位中心;S3、确定目标的方位波束指向角和目标的数据关联;S4、通过分裂波束形成,进一步的求出目标的方位波束指向角目标的精确方位角;S5、对目标的精确方位角进行滤波估计,进而进行K时刻目标的状态估计;S6、重复S1-S6,更新跟踪信息。采用上述技术方案,在同一帧输入数据中识别出多个目标,并输出目标的频率范围和方位范围,能够识别出不同目标的方位;YOLO算法在检测多目标时,给出不同目标的预测概率,可用于数据关联,相较于现有的数据关联方法,其准确度更高。其准确度更高。其准确度更高。


技术研发人员:王茂法 仇宝春 薛欢欢 杨武 巩超 钱高峰
受保护的技术使用者:杭州电子科技大学
技术研发日:2021.12.30
技术公布日:2022/7/4
转载请注明原文地址: https://www.8miu.com/read-16498.html

最新回复(0)