摘要
针对辐射源个体识别(SEI)中个体数据分布不平衡导致的识别准确率下降的问题,提出一种基于动态权重模型的SEI方法。通过设计一个动态类权重(DCW)模型,先利用元学习算法使用少量样本数据通过2层计算得到一个适中的权重初始值;再设计一种新的代价敏感损失函数计算预测值与真实值之间的距离,反向调整赋予少数类的学习权重,适度增加对少数类数据的重视程度。对少数类更加友好,对高度不平衡数据的处理有明显优势,缓解多数类样本对整个识别过程的计算误导,提高整体的识别正确率。
科技的快速发展带动了数据爆炸性增长,带来了大量的数据资源,这是巨大的机遇;同时越来越复杂的数据结构也带来了许多挑战,其中一个很值得注意的方面是数据不平衡现象。在雷达辐射源识别中同样存在这样的问题,标准分类器在处理不平衡数据时,往往会将少数类样本错误地划分为多数类样本,导致分类性能非常差。大多数分类器都是在假设数据平衡且均匀分布在每个类上的情况下设计的,这些分类器从不平衡的数据集中学习显著损害标准学习算法的性能,当遇到复杂的不平衡数据集时,标准算法往往无法正确地表示数据的正确分布特征。
目前已有不少专家学者对此进行了研究,提出的数据不平衡处理办法大致可分为数据级、算法级和混合形式等3
在数据不平衡问题中,多数类的数据量是丰
雷达辐射源识别不可避免地要对信号进行特征提取,高阶
假定高阶累积量是绝对可和的,即
(1) |
则k阶谱定义为k阶累积量的(k-1)阶Fourier变换,即有:
(2) |
则双谱可定义为:
(3) |
可以得出接收机接收到的离散含相噪信号为:
(4) |
式中:为高斯噪声信号;为发射机输出的含有非高斯噪声的信号。和相互独立。
对求三阶累积量:
(5) |
式中E为期望。将
(6) |
因此只要信号和噪声的均值为零,则有
(7) |
若w(n)为高斯有色噪声,则可以忽略不计。可见信号的双谱可以消除高斯有色噪声对信号的影响,其双谱由确定,即
(8) |
由上述分析可知双谱分析可滤除高斯噪声的影响,从而最大化保留辐射源信号个体特征。由于双谱具有对称性和周期性,考虑到计算量,选择双谱对角线作为显式特征参与后面的识别过程。
参数初始化是模型训练前比较重要的一步,主要是因为其可以加快梯度下降收敛的速度,并尽量使其收敛于全局最优。权重参数初始化的好坏会影响模型最后的识别性能,初始化参数不能太大或太小,参数太小,会导致特征在每层间逐渐缩小而难以产生作用;参数太大,会导致数据在逐层间传递时逐渐放大,导致梯度消失发散。元学
元学习又称为学会学习,通过学出一个较好的权重初始化参数,帮助模型在新的任务上进行学习。随着对每一项历史任务的学习和经验积累,元学习在学习新任务时变得更加容易,所需的训练样本更少,同时能保证一定的算法精确度。区别于以映射方式为主的深度学习和以试错方式为主的强化学习,元学习旨在学会如何学习。每当模型尝试学习某项任务时,无论成功与否,模型都会获得有用的经验,整合这些经验形成智能体的“价值观”,代表一种会学习的能力,即抽象成函数F(x)。若出现新的任务,在“价值观”的协助下,模型继续学习新任务的极少量样本,即可快速适应和掌握新任务,也即抽象出一个个对应新任务i的函数fi(x)。该算法可直接用于任何梯度下降过程的网络学习训练模型,具有良好的泛化性,适用于各种不同的学习问题,能够使用少量训练数据解决新的学习任务,这与想通过学习少量样本获取少数类更多特征需求正相符。根据对元学习的理解,建立适合本文数据结构的学习模型,其算法结构如

图1 元学习算法结构图
Fig.1 Diagram of meta learning algorithm
元学习比迁移学习对未知新任务的适应有着更好的稳健性,元学习中比较经典是Fin
algorithm: Model-Agnostic Meta-Learning |
---|
require: p(T): distribution over tasks |
require: α, β: step size hyperparameters |
1: randomly initialize θ |
2: while not done do |
3: sample batch of tasks Ti~p(T) |
4: for all Ti do |
5: evaluate with respect to K examples |
6: compute adapted parameters with gradient |
descent: |
7: end for |
8: Update |
9: end while |
在元学习算法中,通过选取少量样本送进权重生成器,在少量的学习中获取合适的初始化权重wi,再将wi送入处理样本数据的神经网络中赋予不同的样本。
在高度不平衡数据集中,多数类在进行数据学习分析中的主导作用更强,识别过程会更偏向多数类。在深度神经网络训练过程中,对多数类的训练包含了大部分损失函数和主导梯度,标准交叉熵损失函数已不足以弥补由于巨大的数据量差异带来的梯度差。因此引入一种动态的思想,通过动态地分配权重,提高对少数类的重视程度,同时不过分减小多数类的存在率,使神经网络能兼顾少数类与多数类的特点,获取各自的隐式特征并保存在模型中,提高对不平衡数据集的整体识别正确率。动态获取权重的过程如

图2 动态类权重整体结构
Fig.2 Overall structure of dynamic class weights
在权重生成器部分,随机选取少数类样本X中的一小部分X′作为元学习的训练样本。对于N个少数类数据集,取每个的子集、,其中作为支持集,每个支持集有K条数据;作为查询集,包含q条未分类数据。在第一阶段,用中的数据训练神经网络,进行1次梯度下降,每个通过反馈机制对初始参数进行1次更新得到,即
(9) |
用1次更新后得到的测试在查询集上的效果,获得损失函数,对上的求均值,得到子集的损失函数均值为:
(10) |
式中Q为Q条数据。对每个子集的查询集计算损失函数均值求和,得到总损失函数:
(11) |
进行第二阶段梯度下降,即更新初始化参数,更新过程为:
(12) |
由此得到权重初始值wi,赋予预处理后的样本数据,进入下一步的Softmax分类计算。通过神经网络的计算以及设计损失函数,记录预测标签与真实标签的差值,并反馈给特征提取阶段和权重生成阶段。根据真实值与预测值的偏移量相应地调整当前权重,由特征提取器的移动平均值对权重生成器进行更新。
本文采用元学习利用少量数据计算出一个较适合的初始权重wi,再通过DCW模型在wi的基础上,根据每一类的数据量灵活分配神经网络对该类的重视程度,并利用损失函数反向更新,使少数类的学习率得到相应的补偿,提高对少数类的识别正确率。整个算法的结构流程如
(13) |
式中:为输入信号;为输出;为赋予输入信号的权重;为神经元内部状态即偏置;为激活函数。

图3 整体流程框图
Fig.3 Block diagram of overall process
卷积神经网络(Convolutional Neural Network,CNN
layer name | parameter settings |
---|---|
input layer | 300×1 |
convolutional 1 ReLU |
filters=32, kernel_size=3×1, strides=1, padding=same |
pooling | pool_size=3,stride=3 |
convolutional 2 ReLU |
filters=64, kernel_size=3×1, strides=1, padding=same |
pooling | pool_size=3, stride=3 |
Dense 1 ReLU | expand 1 024 nodes |
Dense 2 Softmax output |
4 nodes correspond to 4 types of labels |
卷积核大小设为3×1,卷积层1(Conv 1)由32个长度为3的一维卷积核构成,卷积运算后做最大池化。卷积层2(Conv 2)由64个长度为3的一维卷积核构成,卷积运算后做最大池化。全连接层1(Dense 1)1 024个结点,全连接层2(Dense 2(Softmax输出))4个结点,输出的4个结点代表4个不同的辐射源。
针对数据集的不平衡现状,提出一种改进的交叉熵损失函数,用以弥补由于样本类别不均衡带来的梯度失衡问题,提高少数类样本生成的损失对于整体损失的重要程度。
标准交叉熵损失(Cross Entropy loss,CE)表示为:
(14) |
式中:为第i个元素的真实标签;为模型预测该元素属于第i个类别的概率。交叉熵损失的本质是衡量2个概率分布之间的距离,其中一个概率分布是真实标签的分布,另一个是模型预测的概率分布。当2个概率分布越接近时,交叉熵损失越小,模型预测结果越准确。CE没有考虑样本数据不平衡时多数类对梯度的误导,少数类对整体损失的贡献更小,交叉熵损失最终偏向对多数类的判断,对少数类的误判概率增加。对此,Lin
(15) |
式中:为控制正负样本的比例参数,取值范围为[0,1],的取值一般可通过交叉验证选择合适的值;γ为聚焦参数,取值范围为[0,+∞),目的是通过减少易分类样本的权重,从而使模型在训练时更专注于困难样本,当γ=0时,FL退化为交叉熵损失,γ越大,对易分类样本的惩罚力度就越大。Zhang
(16) |
式中ν为超参数。这些改进都调整了损失函数的下降速率,置信度较高数据的损失函数梯度下降更快,但对于本文提出的高度不平衡数据集,不平衡比(IR)小于0.1(数据集中最小类和最大类样本数量的比值小于0.1),低置信概率部分获得的重视程度还不够充足,高置信概率部分的损失值尽管处在较低水平,但在数量的优势加成下,在整体损失中所占的比重仍有相当的优势,对高度不平衡数据的梯度弥补效果不够,并没有使低置信概率区间的不占优势的少数类获得足够高的损失值。基于此,本文提出另一种改进的交叉熵损失函数,引入IR,将少数类占总体的比重作为一个系数因子加进损失函数中,提高少数类对总体损失的贡献率。设不平衡数据集包含c个不同类的数据,第i类的数据量为Ni,占整个数据集总数的比例为:,定义不均衡损失(Imbalanced Loss,IL)为:
(17) |
式中:为各类占总数的比例,即不平衡比;μ、λ和χ为超参数,μ为权重因子,当少数类数据信息极少,即过于小时,可以通过增大权重因子提高少数类样本损失在总体损失中的比重;λ为缩放系数,多数类数据占总体比例过高,即过大时,λ可调整对的限制程度,即对多数类损失的抑制程度;χ为调制系数,用于调节IL损失曲线的下降速度,其实质是对各类样本的损耗分离度进行分别设置。

图4 四类代价敏感损失曲线
Fig.4 Four types of cost sensitive loss curves
本文实验平台为Windows 10,双谱算法平台为Matlab R2018b,深度学习模型架构为Tensorflow2.2.0。采用基于GNU Radio软件的模拟辐射源,通用软件无线电外设(Universal Software Radio Peripheral,USRP)作为信号收发器。实验过程中,搭建由装有GNU Radio软件的计算机和8台USRP-B210组成的软件无线电(Software Defined Radio,SDR)平台作为信号发射装置,另一台USRP-B210作为信号接收装置,信号采集过程如

图5 辐射源信号采集系统实物图
Fig.5 Radiation source signal acquisition system
在GNU Radio的GUI界面中,发射信号的参数设置如下:信号调制方式为16QAM,载波频率为1.09 GHz,带宽为2 MHz,发射增益为50 dB,USRP采样率为2 MHz,通道选择TX/RX2:0。在接收端配置B210接收机设备信息,工作频率设为20 MHz,采样频率为2 MHz,通道选择RX2:0,接收增益为60 dB。在发射机流图与接收机装置均连接好之后,进行真实环境下的数据收集,实验场景如
由于所采集的数据是实测数据,从
dataset | category | |||||||
---|---|---|---|---|---|---|---|---|
E1 | E2 | E3 | E4 | E5 | E6 | E7 | E8 | |
standard training set | 1 500 | 1 500 | 1 500 | 1 500 | 1 500 | 1 500 | 1 500 | 1 500 |
standard test set | 500 | 500 | 500 | 500 | 500 | 500 | 500 | 500 |
training set1 | 200 | 1 500 | 300 | 1 500 | 200 | 1 500 | 400 | 1 500 |
training set2 | 1 500 | 80 | 1 500 | 100 | 1 500 | 100 | 1 500 | 90 |
training set3 | 100 | 1 500 | 50 | 1 500 | 90 | 1 500 | 60 | 1 500 |
training set4 | 1 500 | 200 | 1 500 | 300 | 1 500 | 350 | 1 500 | 200 |

图6 数据集设置柱形图
Fig.6 Dataset comlumn charts
由于在神经网络中加入DCW模块,在计算时偏向少数类,因此本节对神经网络的收敛性进行分析。在各不平衡训练集上运行DCW-CNN,记录迭代后的损失函数如

图7 不平衡训练集损失值变化曲线
Fig.7 Loss value change curves of unbalanced training set
为证明DCW模块的有效性,选取DCW-CNN和原始CNN进行识别性能对比。2个网络除了有无DCW模块不同,其余网络结构和网络参数均相同。分别在2个网络上训练标准训练集、训练集1、训练集2、训练集3和训练集4,保存训练好的模型,使用标准测试集检验2个网络在不同训练集上的学习训练效果,2种网络的识别准确率如

图8 DCW-CNN与CNN的识别准确率对比
Fig.8 Comparison of recognition accuracy between DCW-CNN and CNN
2种网络在标准训练集上的训练效果相差不多,但在训练不平衡数据集时,添加了DCW模块的DCW-CNN相比于原始CNN有明显的优势。说明提出的DCW在处理不平衡数据集时,确实可以通过分配偏向于少数类的权重来平衡多数类对整体识别的误导,有控制地加强对少数类特征的学习,在测试集中无论数据集是否不平衡,都能达到较高的识别率。
为验证不同样本数量对网络性能的影响,对标准训练集进行均匀随机采样,按能量加入高斯白噪声模拟不同的信噪比,损失函数设置为标准交叉熵损失,实验结果如

图9 不同训练样本数下识别性能对比
Fig.9 Comparison of recognition performance under different training sample numbers
通过在1个均衡数据集和4个不均衡数据集上训练3类损失函数(CE损失,FL损失和IL损失),分析IL损失与其他2类损失的性能,并在标准测试集上比较这3类损失函数的测试准确率,结果如
RSN/dB | ||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 2 | 4 | 6 | 8 | 10 | 12 | 14 | 16 | 18 | 20 | 22 | 24 | ||
training set 0 | CE | 53.46 | 54.34 | 58.94 | 62.87 | 67.42 | 73.81 | 84.98 | 90.17 | 92.88 | 94.25 | 95.43 | 96.51 | 97.12 |
FL | 50.15 | 51.23 | 54.01 | 58.64 | 63.97 | 70.54 | 80.16 | 87.49 | 91.69 | 93.55 | 94.07 | 94.19 | 94.35 | |
IL | 50.10 | 52.11 | 52.84 | 60.51 | 63.15 | 68.51 | 79.37 | 88.09 | 90.87 | 91.88 | 92.35 | 92.61 | 92.94 | |
training set 1 | CE | 29.36 | 34.47 | 37.51 | 45.64 | 48.91 | 53.17 | 60.25 | 66.18 | 68.20 | 70.23 | 75.62 | 76.76 | 78.45 |
FL | 29.65 | 34.89 | 38.14 | 47.43 | 50.68 | 57.91 | 67.29 | 71.58 | 75.66 | 80.44 | 81.62 | 82.34 | 83.56 | |
IL | 30.16 | 35.08 | 39.26 | 49.24 | 55.35 | 61.24 | 70.19 | 74.63 | 82.14 | 83.51 | 83.96 | 84.05 | 85.73 | |
training set 2 | CE | 27.24 | 31.76 | 33.24 | 39.91 | 43.15 | 49.64 | 55.11 | 60.58 | 64.99 | 65.19 | 71.45 | 71.05 | 72.64 |
FL | 28.39 | 32.62 | 35.08 | 42.58 | 47.95 | 56.28 | 62.31 | 70.06 | 76.25 | 78.24 | 81.35 | 82.28 | 83.96 | |
IL | 29.09 | 33.24 | 38.41 | 46.28 | 53.65 | 60.19 | 66.79 | 72.18 | 79.26 | 81.54 | 82.29 | 83.36 | 84.64 | |
training set 3 | CE | 27.09 | 29.77 | 31.02 | 37.15 | 41.25 | 47.61 | 53.59 | 57.62 | 62.15 | 63.32 | 70.42 | 71.02 | 71.96 |
FL | 29.28 | 31.92 | 36.74 | 43.46 | 48.68 | 57.02 | 62.15 | 69.89 | 74.56 | 76.25 | 77.65 | 78.97 | 81.23 | |
IL | 30.05 | 33.99 | 40.21 | 45.69 | 54.03 | 59.65 | 65.02 | 71.65 | 80.06 | 80.26 | 81.65 | 82.68 | 83.96 | |
training set 4 | CE | 28.55 | 33.24 | 35.24 | 42.12 | 45.05 | 50.53 | 57.26 | 64.13 | 66.05 | 67.13 | 72.96 | 73.47 | 76.68 |
FL | 29.86 | 33.68 | 36.49 | 46.85 | 49.78 | 57.64 | 67.79 | 70.26 | 76.26 | 79.39 | 81.26 | 82.99 | 83.25 | |
IL | 31.25 | 34.58 | 38.94 | 47.65 | 55.06 | 61.57 | 69.08 | 73.28 | 81.07 | 82.58 | 83.14 | 84.68 | 85.58 |
在同一训练集中不同的信噪比条件下,可以看出识别准确率随着信噪比的增大而稳定提高。在信噪比小于12 dB时,信噪比的增加对于识别准确率的提高有明显增进作用,这是因为在一定阈值内,噪声能量由大变小,使信号中细微的个体差异能够极大程度地释放出来并被捕捉到,使识别准确率增大的速度较快;当信噪比达到这个阈值时,再往上,对于细微特征相对来说的“放大”效果就不再那么明显,此时信噪比的提高对于提高识
别准确率的贡献度降低。
比较不同训练集的识别效果,可以看出,在标准训练集上三类损失的识别准确率差别不大,这是因为在均衡数据集上,FL损失和IL损失的加权模块作用不大,无法根据数据集不平衡的误差反馈对权重进行重新分配,因此三类损失的工作量也相差不大。对于四类不均衡的训练集,FL损失和IL损失的识别准确率均高于CE损失,且在多数情况下IL损失的识别效果要优于FL损失。这是因为IL损失在调整权重的基础上引入了不平衡度因子,对分配权重再次修正,使不平衡数据集中的少数类凭借在数据集总量中占的比例得到相应程度的权重弥补。由此验证了IL损失的性能确实较CEL损失和FL损失有不同程度的提升,平均识别准确率相比CEL损失和FL损失分别提高了9.14%和2.71%。
为验证DCW-CNN配合IL损失在真实场景下的识别效果,将收集到的8台USRP-B210信号进行双谱预处理后,选取

图10 模型对于不同辐射源数量的识别结果
Fig.10 Recognition results for different numbers of emitters
针对数据不均衡导致识别准确率下降的问题,本文提出使用元学习生成权重初始值并用两层反馈动态调整类权重的方法,给不同数量级的样本数据分配不同的权重,给少数类样本一定的重视程度,纠正多数类对神经网络判断的误导;同时提出一种改进的交叉熵损失函数,克服多数类带来的模型性能退化问题,为不平衡识别问题提供新的解决方案,对于改善识别处理高度不平衡数据的效果有一定的应用意义,但本文对于损失函数的研究还存在一定遗憾,对处于置信概率中段的数据没有给予足够的重视,损失函数从低置信概率到高置信概率下降极快,对于中段数据的考虑有所欠缺,希望在以后的研究中对这一情况加以重视。
参考文献
LI Bi,XI Teng,ZHANG Gang,et al. Dynamic class queue for large scale face recognition in the wild[C]// 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR). Nashville,TN,USA:IEEE, 2021:3763-3772. [百度学术]
LIU Tianyu,CHEN Bojian,HUANG Weiguo,et al. Assessment of tool wear with insufficient and unbalanced data using improved conditional generative adversarial net and high-quality optimization algorithm[J]. IEEE Transactions on Industrial Electronics, 2023,70(11):11670-11680. doi:10.1109/TIE.2022.3231300. [百度学术]
李成,晋玉猛,田文飚. 多尺度自适应直接信息采样与重构[J]. 海军航空大学学报, 2019,34(2):187-192. [百度学术]
LI Cheng,JIN Yumeng,TIAN Wenbiao. Multi scale adaptive direct information sampling and reconstruction[J]. Journal of Naval Aviation University, 2019,34(2):187-192. doi:10.7682/j.issn.1673-1522.2019.02.002. [百度学术]
KHANDOKAR I A,ABDULLAH A T,KHONDOKAR T,et al. A clustering based priority driven sampling technique for imbalance data classification[C]// 2022 the 14th International Conference on Software,Knowledge,Information Management and Applications(SKIMA). Phnom Penh,Cambodia:IEEE, 2022:176-180. doi:10.1109/SKIMA57145.2022.10029565. [百度学术]
MALHOTRA R,KASHYAP V,SHARMA V. Comparative study of sampling techniques for software defect prediction[C]// 2022 the 8th International Conference on Advanced Computing and Communication Systems(ICACCS). Coimbatore,India:IEEE, 2022:760-766. doi:10.1109/ICACCS54159.2022.9785238. [百度学术]
DISHA N,CHADAGA N B,SINGH H,et al. Empirical analysis of sampling methods on imbalanced data[C]// 2022 IEEE North Karnataka Subsection Flagship International Conference(NKCon). Vijaypur,India:IEEE, 2022:1-6. doi:10.1109/NKCon56289. 2022.10126733. [百度学术]
陈白强,盛静文,江开忠. 基于损失函数的代价敏感集成算法[J]. 计算机应用, 2020,40(S2):60-65. [百度学术]
CHEN Baiqiang,SHENG Jingwen,JIANG Kaizhong. Cost sensitive integration algorithm based on loss function[J]. Computer Applications, 2020,40(S2): 60-65. doi:10.11772/j.issn.1001-9081.2020020213. [百度学术]
LI Kai,WANG Bo,TIAN Yingjie,et al. Fast and accurate road crack detection based on adaptive cost-sensitive loss function[J]. IEEE Transactions on Cybernetics, 2023,53(2):1051-1062. doi:10.1109/TCYB.2021.3103885. [百度学术]
WANG Chao,JI Liqiang,SHI Fan. Collapsed building detection in high-resolution remote sensing images based on mutual attention and cost sensitive loss[J]. IEEE Geoscience and Remote Sensing Letters, 2023(20):1-5. doi:10.1109/LGRS. 2023.3268701. [百度学术]
CHAWLA Nitesh V,BOWYER Kevin W,HALL Lawrence O,et al. Smote:synthetic minority over-sampling technique[J]. Journal of Artificial Intelligence Research, 2002,16(1):321-357. doi:10.1613/jair.953. [百度学术]
ZHONG Yaoyao,DENG Weihong,WANG Mei,et al. Unequal-training for deep face recognition with long-tailed noisy data[C]// CVF Conf Comput Vis Pattern Recognit(CVPR). Long Beach,CA,USA:IEEE, 2019:7804-7813. doi:10.1109/CVPR.2019.00800. [百度学术]
ZHENG Jian,QU Honchun,LI Zhoni,et al. Conformal transformation twin-hyperspheres for highly imbalanced data to binary classification[C]// 2022 IEEE the 9th International Conference on Data Science and Advanced Analytics(DSAA). Shenzhen,China:IEEE, 2022:1-6. doi:10.1109/DSAA54385.2022.10032448. [百度学术]
SADREDDIN A,SADAOUI S. Training and testing cascades for imbalanced data classification[C]// 2022 IEEE Symposium Series on Computational Intelligence(SSCI). Singapore,Singapore:IEEE, 2022:261-268. doi:10.1109/SSCI51031.2022.10022190. [百度学术]
ZHANG Linbin,ZHANG Caiguang,QUAN Sinong,et al. A class imbalance loss for imbalanced object recognition[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2020,13(1):2778-2792. doi:10.1109/JSTARS. 2020.2995703. [百度学术]
张贤达. 现代信号处理[M]. 2版. 北京:清华大学出版社, 2002:274-281. [百度学术]
ZHANG Xianda. Modern signal processing[M]. 2nd ed. Beijing:Tsinghua University Press, 2002:274-281. [百度学术]
赵春宇,赖俊. 元强化学习综述[J]. 计算机应用研究, 2023,40(1):1-10. [百度学术]
ZHAO Chunyu,LAI Jun. Review of yuan reinforcement learning[J]. Computer Application Research, 2023,40(1):1-10. doi:10.19734/j.issn.1001-3695.2022.06. 0295. [百度学术]
FINN C,ABBEEL P,LEVINE S. Model-Agnostic Meta-Learning for fast adaptation of deep networks[C]// Proceedings of the 34th International Conference on Machine Learning. Sydney,Australia:[s.n.], 2017:1126-1135. [百度学术]
DANG Xiangqian,LI Zhanbo. Network intrusion detection approach based on convolutional neural network[C]// 2022 the 4th International Conference on Communications,Information System and Computer Engineering(CISCE). Shenzhen,China:IEEE, 2022:247-251. doi:10.1109/CISCE55963.2022.9851014. [百度学术]
QIAN Yunhan,QI Jie,KUAI Xiaoyan,et al. Specific emitter identification based on multi-level sparse representation in automatic identification system[J]. IEEE Transactions on Information Forensics and Security, 2021(16):2872-2884. doi: 10.1109/TIFS.2021.3068010. [百度学术]
刘鑫尧,秋勇涛,皇甫雅帆,等. 基于星座图和卷积神经网络的射频指纹识别[J]. 太赫兹科学与电子信息学报, 2022,20(5):458-463. [百度学术]
LIU Xinyao,QIU Yongtao,HUANGFU Yafan,et al. Radio frequency fingerprint identification based on constellation and convolutional neural network[J]. Journal of Terahertz Science and Electronic Information Technology, 2022,20(5):458-463. doi:10.11805/TKYDA2020091. [百度学术]
LIN T Y,GOYAL P,GIRSHICK R,et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2020,42(2):318-327. doi:10.1109/ICCV.2017.324. [百度学术]