本发明公开了一种基于置信度融合的多模态情绪识别方法及系统,属于人工智能技术领域。本发明能够系统地对多模态情绪数据中的不确定性进行建模,通过不确定性估计揭示情绪的动态变化。包括使用MNE和OPENFACE工具包分别对EEG信号和面部表情特征进行数据预处理,使用共享权重的多通道LSTM对预处理后的多模态样本进行跨模态特征对齐,并采用自注意力机制对序列数据在时间层面上的不确定性进行建模。还包括训练两个置信度回归模块来获取不同模态特征表示的分类置信度,以作为多模态融合的指导;基于置信度回归模块获取的置信
1.一种基于置信度融合的多模态情绪识别方法,其特征在于,该方法针对多模态情绪
数据中的不确定性进行建模,通过不确定性估计揭示情绪的动态变化,包括如下步骤:
S1、获取多模态情绪序列数据,对该数据进行预处理,得到预处理后的同步多模态序列
S2、基于步骤1中预处理的数据,将数据输入共享权重的多通道LSTM进行多模态特征对
口数,D和D分别代表EEG模态和面部表情模态的特征维度,与之对应的标签信息记为y;为
了利用连续刺激在脑电图和面部表情之间呈现的潜在时间依赖性,采用一个共享权重的多
通道LSTM网络,通过共享权重,多通道LSTM学习跨模态之间的相关性,公式表示如下:
式中,和代表模态m={E,F}的第i个样本第t‑1或第t个时间窗在LSTM中的
记忆单元、隐藏状态和输入数据;代表多通道LSTM的输出,则是第t个时间窗的记
忆单元和隐藏状态;隐藏状态的权值在模态和时间窗之间共享,而输入向量的权值只在模
态和时间窗之间共享;多通道LSTM能够捕获多模态序列数据中的潜在相关性,并实现异构
S3、使用自注意力机制来建模时间层面的不确定性,识别出更可靠的时间段内的序列
于生成模态m={E,F}特征表示的查询、键和值的参数矩阵,在模型训练中通过反向传播更
S4、基于真类概率设计置信度回归网络来获得模态的置信度,同时为了保持多模态数
据之间的共同特征,采用KL‑divergence来约束不同模态的相似性;
其中,所述真类概率使用真实标签对应的SoftMax输出概率作为预测置信度,每个模态
式中,x表示模态m样本的高维特征向量,y代表它的真实类别,TCP则代表模态m样本对
S5、基于置信度作为多模态融合的指导,实现可信多模态融合,通过自注意力机制提取
EEG和面部表情模态特征,分别表示为f∈R,f∈R;在训练过程中,利用置信度回归网
S6、基于融合后的多模态特征进行分类,实现情绪识别,其中包括使用交叉熵损失来监
S7、在优化阶段采用自步学习对样本层面不确定性进行建模,为了学习多模态输入的
鲁棒表示,采用自定节奏学习,基于低到高不确定性的样本来训练上述模型,由此提高模型
2.根据权利要求1所述的基于置信度融合的多模态情绪识别方法,其特征在于,步骤S1
S1.2、使用mne.filter()对EEG信号进行带通滤波器滤波,以过滤EEG信号中与情绪激
S1.3、通过Welch方法提取EEG信号中t秒非重叠时间窗口的功率频谱密度特征;
S1.4、对于数据集中的面部表情数据,将数据集中原始的视频数据导入OPENFACE工具
S1.5、使用OPENFACE提取面部视频的特征,其中包括相面部位置、头部位置、眼睛凝视
S1.6、根据t秒非重叠滑动窗口,取时间窗各特征的平均值作为最终使用的特征。
3.根据权利要求1所述的基于置信度融合的多模态情绪识别方法,其特征在于,步骤S3
通过计算Q和K之间的标量点积相关来获得时间窗口之间的注意力系数,并将其输入
SoftMax函数,然后,通过注意力系数与V的乘积得到具有自注意的特征:
4.根据权利要求1所述的基于置信度融合的多模态情绪识别方法,其特征在于,步骤S4
中,对于模态m,通过一个置信回归网络g来近似真类概率,利用MSE损失来训练置信回归网
这里的c=g(x)表示由置信度回归网络预测的置信度值,M是模态的数量,代表TCP
5.根据权利要求1或4所述的基于置信度融合的多模态情绪识别方法,其特征在于,步
骤S4中通过KL‑divergence来约束不同模态的相似性,不仅可以学习置信度c,还可以根据
6.根据权利要求1所述的基于置信度融合的多模态情绪识别方法,其特征在于,步骤S5
还包括通过赋予较高的权重,增强不确定性较低的模态的破坏性;通过赋予较低的权重,可
这里c,c分别表示EEG模态和面部表情模态由置信度回归网络获得的置信度,代表
7.根据权利要求1所述的基于置信度融合的多模态情绪识别方法,其特征在于,步骤S6
式中,表示交叉熵损失,P(f)为融合特征向量划分为某类的概率,Y为样本的标
8.根据权利要求1所述的基于置信度融合的多模态情绪识别方法,其特征在于,步骤S7
上式中的自步学习正则化项f(v,λ)有利于从训练集中选择低不确定性样本,在该方法
9.根据权利要求8所述的基于置信度融合的多模态情绪识别方法,其特征在于,在初始
阶段,随机选择一小部分训练数据来训练模型;随着训练的进行,根据样本的训练损失将更
多的样本加入到训练过程中,直到包括所有样本,这使得模型能够学习到更鲁棒的多模态
10.一种基于置信度融合的多模态情绪识别系统,其特征在于,该系统包括基于时间不
确定性的多模态特征对齐模块、基于模态不确定性的置信度感知融合模块、分类模块和基
该系统及上述模块是由实施如权利要求1所述的方法得到的,且所述的置信度感知融
合模块由多通道LSTM、自注意力机制、置信度回归模块和自步学习机制组成;
所述的多通道LSTM用于对异构多模态情绪数据进行跨模态对齐,从而更好地解决模态
所述的自注意力机制用于挖掘序列数据在时间上的不确定性,进一步学习有效的特征
所述的置信度回归模块用于获取不同模态特征的模态置信度,以作为多模态融合的加
所述的自步学习机制用于让模型逐步将不确定性样本加入到模型训练过程中,从而更
[0001]本发明属于人工智能技术领域,具体涉及一种基于置信度融合的多模态情绪识别
[0002]情绪识别正受到越来越多的关注,由于其在人机交互系统的感知和决策提供了关
键信息,使这些系统能够对用户的情绪状态做出适当的反应。在生理情绪特征中,脑电图具
有无创、低成本和高时间分辨率等优点。不仅如此,由于EEG信号与高级认知过程直接相关,
基于EEG的情绪识别在近年来受到越来越多的关注。此外,情绪数据的收集和识别过程往往
受到不同程度的不确定性影响。因此,开发能够有效提取情感内在状态的鲁棒识别模型仍
[0003]许多基于机器学习或深度学习的方法已被用于基于EEG的情绪识别。HSAN能够联
合建模EEG特征的局部和全局时间信息。MNSEP通过学习EEG脑网络中的判别图拓扑,能够使
用多个与情绪相关的空间网络拓扑模式进行多类别情绪识别。OGSSL将自适应图学习和情
绪识别统一为一个目标。然而上述方法依赖于单模态分析,不能完全反映情绪状态,难以达
到令人满意的准确性和稳定性。得益于多模态之间的互补信息,整合生理信号和行为信号
可以提高情绪识别的表现。ETF基于注意力机制融合EEG和眼动数据,以实现较高的情绪识
别精度。MMResLSTM能够学习EEG与外围生理信号的潜在相关性,从而提高识别性能。
EmotionMeter通过将EEG和眼动结合,整合了内部认知和外部潜意识行为,探索了多模态表
征能力的互补特征。然而,情绪的复杂生理特性使得不确定性成为情绪识别中的一个重要
因素。具体来说,多模态数据中各种形式不确定性的存在增加了准确识别情绪的难度。
[0004]近年来,研究者提出了一些基于不确定性学习的情绪识别方法。例如,EMENet通过
采用深度集成模型从多个情绪描述符中捕获不确定性,并应用迭代自蒸馏来提高情绪识别
和不确定性估计的性能。IQI能够用来描述不同频段信号强度的不确定性,从而精确提取和
选择脑电情绪特征。SCN通过自注意力机制对训练中的每个样本进行加权。值得注意的是,
这些不确定性分析方法都是针对单模态情绪预测而开发的,并不能环节多模态情绪数据和
融合模型中更多的不确定性。多模态情绪数据和模型中的不确定性归结为以下三个方面:
首先,多模态情绪数据通常具有不同的语义表示,并且由于情绪产生的机制不同,每个时间
窗口对情绪状态的重要性也不同,这反映了时间层面的不确定性。其次,不同模态所产生的
决策模糊性导致了融合层面的不确定性。第三,同一模型识别来自不同主体或轨迹的情绪
样本的难度或置信度不同,反映了样本层面的不确定性。上述不确定性共同给多模态情感
识别带来了挑战。因此,迫切需要开发有效的融合方法来缓解上述不确定性,提高多模态情
[0005]发明目的:针对单模态脑电情绪识别方法存在的不足问题,本发明的第一目的是
提供一种基于置信度融合的多模态情绪识别方法,它能够系统地对多模态情绪数据中的不
确定性进行建模,通过不确定性估计揭示情绪的动态变化。基于该方法的应用,本发明第二
[0006]技术方案:一种基于置信度融合的多模态情绪识别方法,该方法针对多模态情绪
数据中的不确定性进行建模,通过不确定性估计揭示情绪的动态变化,包括如下步骤:
[0007]S1、获取多模态情绪序列数据,对该数据进行预处理,得到预处理后的同步多模态
[0008]S2、基于步骤1中得到的经过预处理的数据,将数据输入共享权重的多通道LSTM进
间窗口数,D和D分别代表EEG模态和面部表情模态的特征维度,与之对应的标签信息记为
y;为了利用连续刺激在脑电图和面部表情之间呈现的潜在时间依赖性,采用了一个共享权
重的多通道LSTM网络(MC‑LSTM表示LSTM网络的进程),通过共享权重,多通道LSTM学习跨模
[0011]式中,和代表模态m={E,F}的第i个样本第t‑1或第t个时间窗在
LSTM中的记忆单元、隐藏状态和输入数据;代表多通道LSTM的输出,则是第t个时
间窗的记忆单元和隐藏状态;隐藏状态的权值在模态和时间窗之间共享,而输入向量的权
值只在模态和时间窗之间共享;多通道LSTM能够捕获多模态序列数据中的潜在相关性,并
[0012]S3、使用自注意力机制来建模时间层面的不确定性,识别出更可靠的时间段内的
由多通道LSTM产生的X和X分别执行线]式中,查询Q,键K和值V代表模态m的三组线性变换特征表示,和分
别是用于生成模态m={E,F}特征表示的查询、键和值的参数矩阵,在模型训练中通过反向
[0017]S4、基于真类概率设计置信度回归网络来获得模态的置信度,同时为了保持多模
态数据之间的共同特征,采用KL‑divergence来约束不同模态的相似性;
[0018]其中,所述真类概率使用真实标签对应的SoftMax输出概率作为预测置信度,每个
式中,x表示模态m样本的高维特征向量,y代表它的真实类别,TCP则代表模态m样
[0021]S5、基于置信度作为多模态融合的指导,实现可信多模态融合,通过自注意力机制
提取EEG和面部表情模态特征,分别表示为f∈R,f∈R;在训练过程中,利用置信度回
归网络动态估计各模态的预测置信度,并以此作为加权的指导不同情绪模态的融合;
[0022]S6、基于融合后的多模态特征进行分类,实现情绪识别,其中包括使用交叉熵损失
[0023]S7、在优化阶段采用自步学习对样本层面不确定性进行建模,为了学习多模态输
入的鲁棒表示,采用自定节奏学习,基于低到高不确定性的样本来训练上述模型,由此提高
集进行预处理,对于数据集中的EEG信号执行下采样,将信号下采样到128Hz;
[0027]S1.3、通过Welch方法提取EEG中t秒非重叠时间窗口的功率频谱密度特征;
[0028]S1.4、对于数据集中的面部表情数据,将数据集中原始的视频数据导入OPENFACE
[0029]S1.5、使用OPENFACE提取面部视频的特征,其中包括相对于摄像头的面部位置,头
[0030]S1.6、根据t秒非重叠滑动窗口,取时间窗各特征的平均值作为最终使用的特征。
[0032]通过计算Q和K之间的标量点积相关来获得时间窗口之间的注意力系数,并将其
输入SoftMax函数,然后,通过注意力系数与V的乘积得到具有自注意的特征:
[0034]式中,d代表归一化参数,它与K的维度相等,表示K的转置矩阵。
[0035]所述方法中,步骤S4对于模态m,通过一个置信回归网络g来近似真类概率,利用
这里的c=g(x)表示由置信度回归网络预测的置信度值,M是模态的数量,代
[0038]进一步的,步骤S4中通过KL‑divergence来约束不同模态的相似性,不仅可以学习
置信度c,还可以根据所提出的置信度回归网络的SoftMax输出获得每个模态的预测分布
[0043]所述方法中,步骤S5还包括通过赋予较高的权重,增强不确定性较低的模态的破
[0045]这里c,c分别表示EEG模态和面部表情模态由置信度回归网络获得的置信度,
[0046]所述方法中,步骤S6通过交叉熵损失来监督多模态学习,避免模型的过渡拟合,计
[0048]式中,表示交叉熵损失,P(f)为融合特征向量划分为某类的概率,Y为样本
[0049]所述方法中,步骤S7所述自定节奏学习,基于低到高不确定性的样本来训练过程
为样本不确定性的度量,其中α和β是控制损失权重的超参数,通过最小化以下函数:
[0053]上式中的自步学习正则化项f(v,λ)有利于从训练集中选择低不确定性样本,在
[0058]更进一步的,在初始阶段,随机选择一小部分训练数据来训练模型;随着训练的进
行,根据样本的训练损失将更多的样本加入到训练过程中,直到包括所有样本,这使得模型
[0059]通过实施上述方法及步骤,相应的可得到一种基于置信度融合的多模态情绪识别
系统,该系统包括基于时间不确定性的多模态特征对齐模块、基于模态不确定性的置信度
[0060]该系统中,所述的置信度感知融合模块由多通道LSTM、自注意力机制、置信度回归
[0061]所述的多通道LSTM用于对异构多模态情绪数据进行跨模态对齐,从而更好地解决
[0062]所述的自注意力机制用于挖掘序列数据在时间上的不确定性,进一步学习有效的
[0063]所述的置信度回归模块用于获取不同模态特征的模态置信度,以作为多模态融合
[0064]所述的自步学习机制用于让模型逐步将不确定性样本加入到模型训练过程中,从
[0065]有益效果:与现有技术相比,本发明显著的效果和实质性的特点主要在于:
[0066](1)本发明提出了一种新型的自动化多模态情绪识别方法,该方法能够系统地建
模多模态情绪识别中的不确定性,实现了多模态情绪数据的可信融合,并且明确地揭示了
[0067](2)开发了一个具有注意力机制地多通道LSTM特征提取网络,该网络可以同时校
[0068](3)提出了一种基于真类概率的置信度回归模块来估计情绪预测在模态层面上的
不确定性,通过置信度加权实现了更好的融合可解释性和更可靠的多模态情绪识别表现。
[0069](4)在模型的优化过程中,采用自步学习来提高所提出模型的鲁棒性。在多个多模
态情绪数据集上的实验结果表明,该方法的表现优于当前最先进的情绪识别算法,并通过
[0074]为详细的说明本发明所公开的技术方案,下面结合说明书附图做进一步的介绍。
[0075]现有的单模态脑电情绪识别方法难以反映受试者的情绪状态,且无法利用多模态
数据中的互补信息,从而使其准确性和稳定性难以令人满意。同时,情绪的复杂生理特性使
得不确定性成为情绪识别中的一个重要因素,多模态情绪识别中各种形式的不确定性增加
[0076]本发明所提供的是一种基于置信度融合的多模态情绪识别方法,结合图1所示的
流程,实施例采用完全连接的神经网络层,其中共享权重的多通道LSTM网络的隐藏层为256
个节点,层数为1,自注意力的线个节点,前馈网络的隐藏层为512个节点,并
在最后一层使用softmax作为激活函数,在整个模型中,使用RELU作为激活函数。下面进一
[0077]S1:获取多模态情绪序列数据,对该数据进行预处理,得到预处理后的同步多模态
[0081]使用mne.filter()对EEG信号进行带通滤波器滤波,以过滤EEG信号中与情绪激活
[0083]对于数据集中的面部表情数据,首先打开OPENFACE工具箱的GUI界面,将数据集中
[0084]接着使用OPENFACE提取面部视频的特征,其中包括3个相对于摄像头的面部位置,
[0085]最后,与EEG信号类似,根据t秒非重叠滑动窗口,取时间窗各特征的平均值作为最
[0086]S2、基于步骤1中得到的经过预处理的数据,将数据输入共享权重的多通道LSTM进
间窗口数,D和D分别代表EEG模态和面部表情模态的特征维度,与它们对应的标签信息记
为y。为了利用连续刺激在脑电图和面部表情之间呈现的潜在时间依赖性,本发明采用了一
个共享权重的多通道LSTM网络(MC‑LSTM)。通过共享权重,多通道LSTM可以学习跨模态之间
[0089]这里和代表模态m={E,F}的第i个样本第t‑1或第t个时间窗在LSTM
中的记忆单元、隐藏状态和输入数据。代表多通道LSTM的输出,则是第t个时间窗
的记忆单元和隐藏状态。隐藏状态的权值在模态和时间窗之间共享,而输入向量的权值只
在模态和时间窗之间共享。多通道LSTM能够捕获多模态序列数据中的潜在相关性,并实现
[0090]步骤3:使用自注意力机制来建模时间层面的不确定性,识别出更可靠的时间段内
[0091]由于情绪模式的差异,即使在长时间和连续的刺激中,也很难保证在不同模式之
间进行一致的情绪预测,这导致生理或非生理序列的某些时间段存在潜在的不确定性。为
了克服这一局限性,增强时间信息的特异性,本发明采用自注意力机制,在序列数据中识别
更可靠的时间段,对由多通道LSTM产生的X和X分别执行线]这里的查询Q,键K和值V代表模态m的三组线性变换特征表示。和分
别是用于是用于生成模态m={E,F}特征表示的查询、键和值的参数矩阵,在模型训练中通
过反向传播更新。通过计算Q和K之间的标量点积相关来获得时间窗口之间的注意力系数,
[0099]得益于多模态信息之间的互补性,虽然多模态融合通常能够增强情绪识别的性
能,但不同模态的决策不一致可能对多模态融合产生负面影响。为了有效整合多模态信息,
对每个模态的预测置信度进行估计是至关重要的。模态的预测置信度越高,对模型预测的
不确定性就越低。因此,本发明引入了真类概率(TCP)来作为衡量模态置信度的标准。
[0100]TCP使用真实标签对应的SoftMax输出概率作为预测置信度。形式上,每个模态的
这里x表示模态m样本的高维特征向量,y代表它的真实类别,TCP则代表模态m样
本对应的真类概率。虽然TCP能够获得可靠的置信度,但由于没有标签信息,在测试阶段不
[0103]对于模态m,本发明设计了一个置信回归网络g来近似TCP,利用MSE损失来训练置
表TCP的真实值。然后TCP就可以用置信度回归网络来近似。同时为了保持多模态数据之间
的共同特征,采用KL‑divergence来约束不同模态的相似性。不仅可以学习置信度c,还可
[0109]步骤5:基于置信度作为多模态融合的指导,实现可信多模态融合。
该方法利用自注意力机制提取EEG和面部表情模态特征,分别表示为f∈R,f
∈R。在训练过程中,利用置信度回归网络动态估计各模态的预测置信度,并以此作为加
权的指导不同情绪模态的融合。通过赋予较高的权重,可以增强不确定性较低的模态的破
[0112]这里c,c分别表示EEG模态和面部表情模态由置信度回归网络获得的置信度,
代表特征拼接操作。该模型从模态层面对不确定性进行建模,使多模态融合预测更加可靠。
[0114]对于多模态任务,现有技术通常使用二元交叉熵(BCE)来监督每个分支的学习,但
它会严重惩罚无法从特定模态分类的样本。在这种情况下,模型可能会过度拟合数据中的
偏差,从而导致模型的过度拟合。因此,基于由置信度感知融合得到的联合特征表示,本发
[0116]这里P(f)为融合特征向量划分为某类的概率,Y为样本的标签。
[0117]步骤7:在优化阶段采用自步学习对样本层面不确定性进行建模,提高模型鲁棒
[0118]如果在训练过程中较早地引入具有较高训练学习损失的样本,则它们更有可能对
模型的鲁棒性产生负面影响。为了学习多模态输入的鲁棒表示,该方法采用自定节奏学习,
[0121]这里n代表训练样本的数量,y代表样本对应的标签。、上式中的自步学习正则化
项f(v,λ)有利于从训练集中选择低不确定性样本。在本发明所述的方法中,采用了一个硬
[0125]初始化λ的值为1,λ随训练的递增步长为1.15。在初始阶段,本发明随机选择一小
部分训练数据来训练模型。随着训练的进行,根据样本的训练损失将更多的样本加入到训
练过程中,直到包括所有样本,这使得模型能够学习到更鲁棒的多模态特征表示。
[0126]进一步的结合图3和图4,本发明所提出的多模态情绪识别模型包括基于时间不确
定性的多模态特征对齐模块、基于模态不确定性的置信度感知融合模块、分类模块和基于
样本不确定性的模型鲁棒性优化模块。所提出系统的整体框架结构如图1所示,其中置信度
回归模块的框架结构如图4所示。它由多通道LSTM、自注意力机制、置信度回归模块和自步
学习机制组成。其中,多通道LSTM的作用是对异构多模态情绪数据进行跨模态对齐,从而更
好地解决模态异质性对融合造成的负面影响。自注意力机制能够挖掘序列数据在时间上的
不确定性,进一步学习有效的特征表示。置信度回归模块的作用是获取不同模态特征的模
态置信度,以作为多模态融合的加权指导,从而提升多模态融合的可靠性和情绪识别的准
确性。自步学习机制能够让模型逐步将不确定性样本加入到模型训练过程中,从而更好地
建模样本层面的不确定性,提高模型的鲁棒性和泛化能力。Confidence
(L)的目的是为了解决真类概率由于需要标签信息,无法在测试期间计算得到的问题。
通过训练置信度回归模块,模型能够在测试阶段逼近真类概率值。Kullback‑Leibler
Loss(L)用于约束不同模态间的特征相似性,从而保持多模态数据之间的共
[0127]综上所述,本发明所提供的方法中,多通道LSTM的作用是对异构多模态情绪数据
进行跨模态对齐,从而更好地解决模态异质性对融合造成的负面影响。自注意力机制能够
挖掘序列数据在时间上的不确定性,进一步学习有效的特征表示。置信度回归模块的作用
是获取不同模态特征的模态置信度,以作为多模态融合的加权指导,从而提升多模态融合
的可靠性和情绪识别的准确性。自步学习机制能够让模型逐步将不确定性样本加入到模型
训练过程中,从而更好地建模样本层面的不确定性,提高模型的鲁棒性和泛化能力,L的
目的是为了解决真类概率由于需要标签信息,无法在测试期间计算得到的问题。通过训练
置信度回归模块,模型能够在测试阶段逼近真类概率值。L用于约束不同模态间的特征相
似性,从而保持多模态数据之间的共同特征,避免关键情绪特征的丢失。此外,Cross‑
Loss(L)的作用是训练分类器,通过拉近预测标签和真实标签之间的距离来提升
2、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问加。
3、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
4、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
辽宁省辽阳市2024-2025学年高一下学期期末考试语文试卷(含答案).pdf
六年级(下)小升初语文必考重点古诗文、日积月累专题练习卷(有答案).pdf
辽宁省沈阳市2024-2025学年高一下学期暑假语文练习题(含答案).pdf
2023年安徽省宿州市墉桥区城东街道招聘社区工作者真题及答案详解一套.docx
宁夏石嘴山市第一中学2024-2025学年高二下学期7月期末考试语文试卷(含答案).pdf
2023年安徽省宿州市墉桥区南关街道招聘社区工作者真题含答案详解.docx
吉林省通化市2025-2026学年新高三暑假语文练习题(含答案).pdf
CNAS-GL27-2009 声明检测或校准结果及与规范符合性的指南.pdf
【行业研报】2023年肯尼亚行业企业战略规划方案及未来五年行业预测报告.docx
部编六年级下册第11课《十六年前的回忆》一等奖教学设计说课稿.docx
GB_T 39637-2020 金属和合金的腐蚀 土壤环境腐蚀性分类.pdf
原创力文档创建于2008年,本站为文档C2C交易模式,即用户上传的文档直接分享给其他用户(可下载、阅读),本站只是中间服务平台,本站所有文档下载所得的收益归上传人所有。原创力文档是网络服务平台方,若您的权利被侵害,请发链接和相关诉求至 电线) ,上传者