Sci论文 - 至繁归于至简,Sci论文网。 设为首页|加入收藏
当前位置:首页 > 计算机论文 > 正文

卷积神经网络在地震断层自动识别中的应用论文

发布时间:2023-02-08 10:28:46 文章来源:SCI论文网 我要评论














SCI论文(www.lunwensci.com):
 
  摘要:断层解释是地震资料解释的重要组成部分。长期以来,采用的地震断层解释方法对人工经验依赖性较高,例如相干体分析、人工蚂蚁算法、边缘检测等方式就非常依赖地质解释人员的经验。这样的计算方法容易因为人工错误而产生误差。因此,探究地震断层自动识别非常重要。
 
  关键词:卷积神经网络;断层自动识别;三维地震勘探;相干体
 
  Application of Convolutional Neural Networks in Automatic Earthquake Fault Identification
 
  CAI Chenglin,ZOU Guangui
 
  (College of Geoscience and Surveying Engineering,China University of Mining and Geoscience Technology(Beijing),Beijing 100083)
 
  【Abstract】:Fault interpretation is an important part of seismic data interpretation.For a long time,the seismic fault interpretation methods used are highly dependent on artificial experience,such as coherent volume analysis,artificial ant algorithm,edge detection and so on.Such a calculation method is easy to produce errors due to manual errors.Therefore,it is very important to explore the automatic identification of seismic faults.
 
  【Key words】:convolutional neural network;automatic fault identification;3D seismic exploration;coherent body
 
  1卷积神经网络基本原理
 
  卷积神经网络(Convolutional Neural Network,CNN)是计算机技术发展的重要产物,是深度学习的代表算法之一。CNN是通过将原始图像直接传输到相关检测设备中,并能提取和展示原始图像的各项特征,便于人们进行标记和监督。当前,各领域都积极使用CNN,如视觉媒体风格转换、信息安全、肿瘤图像分析与处理、光学遥感目标检测技术等方面,将CNN应用到断层识别成为可能。
 
  CNN的组成部分可分为输入层、输出层、连接层、卷积层和池化层。其中,输入层、卷积层属于特征提取结构,通过每个神经元输入与其相连的局部提取该部分的特征,从而确定它与特征位置的关系。卷积层、池化层和输出层属于特征映射结构,会将特征映射转变成一个平面,并保证平面上每个神经元权值相等。也就是说先借助单个神经元进行图像局部特征感知,然后再将局部特征整合起来,得到图片的全局特征。另外,池化层是进行图像压缩处理的层级,能够将卷积后的图像划分成若干个区域,通过采取该区域的最大值或平均值构成新的图像,池化后的图像仍保有原先特征[1]。
 
  除了卷积层、输出层等基本层级外,归一化层也是卷积神经网络经常出现的结构,是进行深度学习的重要途径。为了让训练数据得到更好分布,通常会对输入数据进行归一化处理,让输入数据能够处于同一分布平面。但这样的处理方式容易出现给网络训练带来难题的现象,这时候就需要对每个层级进行归一化操作,将其移入到平移、缩放的参数中,确保每次数据在经过归一化后还能保有学习来的特征。
 
  CNN在图像处理过程中存在前向传播和反向传播两个环节。前向传播指的是从输入依次进行一系列卷积和池化操作,从而得到特征图像,并将其输送到全连接层进行分类。反向传播是通过利用人为设定的标签来观察其于前向传播输出之间的误差值,能够进行逐层传递误差,可以帮助研究人员进行参数优化,得到最小化的各项参数值,进而进行参数调整。在进行CNN模拟训练过程中,可能会存在损失数值,因此可以借助反向传播将其损失降到最低。
 
  在进行深度学习过程中,需要设计一个代价函数,又名损失函数,多数使用交叉熵函数。通过设计代价函数来表示预测值和真实值的误差,就能提升整个训练过程的约束效果,避免无方向训练。在得出代价函数公式后,就需要操作最小化代价函数方向训练,通过计算每个权重值的梯度,并进行迭代梯度下降,从而有效控制权重值朝着代价函数小的方向改变。
 
  2卷积神经网络在断层识别中应用过程
 
  2.1方法原理
 
  可以将断层识别问题转化成分类问题,将断层点分为一类,然后将非断层点分为一类,分别用1和0表示[2]。然后就可以借助图像特征分类来进行断层识别,减轻人工识别和算法压力。本文先选取一个待判断点,并以其作为中心沿着Xline、Inline、Time三个方向各选取一个30×30的二维切片,将其组成30×30×3的样本,用x表示。然后进行样本输入,将x输入到CNN模型中,从而判断其为断层点还是非断层点。具体判断标准为分析该判断点是断层点的概率大还是非断层点的概率大。一般来说,非断层点要多于断层点,因此,当该点所处的集合组数量多于对面组时,它是非断层点,反之则是断层点。本文用Y表示x的标签变量,y表示x的标签值(0和1),然后用(x,y)表示训练集中的样本。在进行模拟训练时,先选择一批样本,将其设为n,其的损失函数计算方式如式(1)所示:

     \
 
  然后借助Adam优化算法进行损失函数计算,找到损失函数的最小值。之所以选择Adam算法,是因为其具有自适应随机梯度下降的优点,可以满足多个层级需求,能够对不同参数设计独立的自适应性学习率,而且具有内存占比小、操作简单的优势。
 
  2.2模型建立
 
  2.2.1训练集建立
 
  本次共设计了7层,按照卷积层-最大池化层-卷积层-最大池化层-全连接层-全连接层-输出层的设计顺序。将输出层放在最后一层可以有效识别结果,进行选中点判断,并将其归到1或0中。
 
  本文通过人工标记手段选取训练集。先进行实际地震资料收集、分析、整理,了解断层点和非断层点的数量特点,然后进行断层点和非断层点数据采集,尽可能让两者的数量比例保持为1:1,避免因为数量不平等而造成分析误差。例如,选用2个断层点和98个非断层点,就算可以达到98%的正确率,也会影响到最终的模拟结果,因为在训练过程中选中点只需要返回一个全部点为非断层点的模型,这样的模拟结果是无效的。因此,需要对非断层点进行“欠采样”处理,让断层点和非断层点能够处于平衡状态,提高训练的试验价值。本次采集的样板共有8000个样本点,分别来源于10个面的400个断层点和400个非断层点。然后将所有样本点进行混合打乱,随机挑选相同数量的断层点和非断层点作为训练集,剩下的样本点作为验证集。
 
  2.2.2 CNN网络搭建及模型训练
 
  在网络中输入24×24×3样本,输出的点为标签概率。在进行样本输入前,需要进行标准化处理。处理方式如式(2)所示:

   \
 
  其中,u表示每个样本维度的均值,a表示样本所对应的标准差。
 
  本文搭建的CNN模型共包含2个卷积层、2个池化层、2个全连接层和1个输出层。并借助Softmax分类器进行输出预测分类,提高对样本点所属概率的分析效率。其中,卷积层拥有2层滤波,滤波规格为3×3,数量为16个。在经过卷积层时,会借助Batch–Normalization和ReLU激活函数。其中,可以将Batch–Normalization看作成归一化网络层,能够提高模型的网络泛化能力,而且能够满足打乱样本训练顺序的要求,不必严格按照相关规律进行,反而因为其随机性更能提高训练的真实度和精准度。
 
  同时,本文还在卷积层后的池化层使用Max-pooling,规格为2×2,通过Max-pooling来防止过度拟合。Max-pooling是最大池化,是常见的Pooling层使用技术,具有很强的鲁棒性,能够对一个局部像素块进行典型特征提取,就算该区域中的其他值略有改变,也不会影响池化后的结果。然后通过使用Dropout加强过度拟合防止效果。如在两层卷积层之间使用0.25的Dropout和在全连接层之间使用0.5的Dropout。Dropout也具有缓解拟合的功能,能够在每次迭代训练过程中阻止梯度传递。同时,Dropout还具有集成作用,可以满足随机选择神经元训练的要求,就能进行多种排列组合,通过不同组合训练得到多个不同结果,最后选取多个结果的平均值,从而提升试验的精准度。在不同组合中,会产生不同的拟合问题,但可以借助取平均值的方式进行相互抵消,这样一来,组合的方式越多,得到的结果也越接近真实,就能放在过拟合。同时,也能减弱各节点的相互依赖关系,避免同样两个神经元出现在同一网络中,有效防止过拟合。在解决玩过拟合问题后,本文选择Softmax分类器进行样本中心点输出,判断出中心点0属于断层点和非断层点的概率,如果非断层点的概率低于断层点概率,则认为该点为断层点,将其标记为1;反之,则认为该点为非断层点,用0作为标记。
 
  在完成基本层级确定和样本选择后,需要借助训练机器进行学习模仿,并在不断模仿中进行模型参数调整,得出模型的最优参数。一般来说,网络模型的参数量都非常大,需要进行大量样本学习模拟。为了提高训练模拟结果质量,本文是在经过进行样本数据增广(Data Augmentation)后,再开始进行网络训练,这样能够提升网络的推广性。
 
  本文借助Keras搭建训练网络。在模型训练完毕后,借助测试集进行卷积神经网络模型测试,并将所选的Patch输入网络进行测试。本文将Patch的Batchsize设置成64,然后将其代入到算式(1)中,算出其中的交叉熵函数,并将其作为损失函数。本文采用Adam优化算法进行损失函数最小值计算,当损失函数值无法再减小时,此时的参数值就是最佳的,然后就可以利用验证集中的数据进行验证。通过训练模拟验证,本文的训练模拟准确率较高,接近90%。
 
  3基于卷积神经网络的断层识别
 
  为了验证本文所用卷积神经网络的断层识别效果,将采取简单的断层模型和实际地震断层数据进行训练和测试。本文研究数据来源于中国西北部的某沙漠区,该区域存在走滑断层发育现象,进行精确描述走滑断层非常重要,将影响到油气藏的勘探和开发。本文先在Xline,Time方向各选取一个面(非取样面)的预测结果,然后与相干体结果进行对比。如图1、图2所示,图(a)为原始地震数据,图(b)为相干体结果,图(c)为CNN模型预测结果。
 
  由图可以看出CNN模型预测结果在特征方面提取更为精准,排除了很多干扰选项,可以直观的进行断层描述。虽然本文选用的人工标记数据量较少,但是使用了数据增广算法、Dropout、Batch–Normalization、Max-pooling、Softmax分类器、Adam算法等放在样本数据过度拟合的技术,可以在少量样本情况下也能得到较高的预测结果。从与相干体的对比中也能发现,其能够取得比相干体更好的结果。

\
 
  另外,在训练误差和训练精度方面也进行多次训练调整,虽然在一开始有较大的误差,但随着迭代次数不断增加,误差数值也在不断缩小,并逐渐趋向于稳定,训练精度也是如此。由此,可以看出本文设计较为合理,也能得到卷积神经网络适用于地震断层自动识别中,而且不会存在水平干扰的问题,有效缓解对人工经验的依赖。
 
  4结论
 
  通过将卷积神经网络应用到地震断层自动识别中,可以有效减少人为因素干扰和水平干扰,得到较高的断层解释,为进行地震资料分析提供有效参考。从本文训练模拟过程中可以发现本次模型使用了很多先进的算法,但本文的算法也不能完全避免人为因素,例如人工标记数据、人工解释数据等,都或多或少的经过人为操作,还是存在误差的可能性。因此,还需要继续研究卷积神经网络模型和其他深度学习算法,不断增强网络的泛化能力,提高断层识别的准确率,为开展地震断层自动识别提供帮助。
 
  参考文献
 
  [1]王紫蕊,吴帮玉,刘乃豪,等.卷积神经网络在地震断层自动识别中的应用[C]//中国石油学会2019年物探技术研讨会论文集,2019:1515-1518.
 
  [2]赵明,陈石,Dave Yuen.基于深度学习卷积神经网络的地震波形自动分类与识别[J].地球物理学报,2019,62(1):374-382.
 
  
关注SCI论文创作发表,寻求SCI论文修改润色、SCI论文代发表等服务支撑,请锁定SCI论文网!

文章出自SCI论文网转载请注明出处:https://www.lunwensci.com/jisuanjilunwen/50975.html

发表评论

Sci论文网 - Sci论文发表 - Sci论文修改润色 - Sci论文期刊 - Sci论文代发
Copyright © Sci论文网 版权所有 | SCI论文网手机版 | 鄂ICP备2022005580号-2 | 网站地图xml | 百度地图xml