测算方法论文合集12篇

时间:2023-04-03 10:03:36

测算方法论文

测算方法论文篇1

[摘 要] 农产品对外贸易价格指数是研究农产品贸易问题的基础。我国农产品对外贸易价格指数体系不完善,影响了农产品贸易领域内相关研究的展开。本文对农产品对外贸易价格指数体系及测算方法做了全面比较,在此基础上提出农产品贸易价格指数测算应注意的三个关键问题。 【论文关键词】 农产品贸易对外贸易价格指数 农产品对外贸易价格指数是研究农产品贸易问题的基础。我国农产品对外贸易价格指数体系不完善。目前编制并公开发布农产品对外贸易价格指数的机构只有商务部,从2002年1月起在《农产品进出口月度报告》中公开发布农产品月度出口价格指数;从2005年2月开始发布进、出口双向价格指数。 一、农产品对外贸易价格指数体系现状 目前可以获得我国农产品对外贸易价格指数的来源非常少。各国际机构(或组织)中,只有WTO在每年发布的ITS(International Trade Statistics)中公开报告部分农产品的全球出口价格指数。WTO将农产品作为初级产品的一部分在ITS中报告了1995年以后的食品和饮料 和农业原材料 两个农产品大类(各包括若干小类)的出口价格指数。根据WTO的统计口径,ITS的初级产品的统计范围包括4个大类:食品和饮料、农业原料、矿物和不含铁的金属以及能源,其中食品和饮料以及农业原料属于农产品范畴。 事实上,FAO曾经编制并公开发布过各国农产品的对外贸易价格指数。根据FAO贸易年鉴的解释,由于缺少新独立国家在1989-2001年间贸易统计数据,FAO暂时中止(temporarily discontinued)了对按照大陆(by continent)区分的各国农产品贸易指数的测算。这对于保证各国农产品对外贸易价格指数数据的完整性是不利的。 国内机构中编制并公开发布我国农产品对外贸易价格指数的部门只有商务部。从2002年1月起,商务部开始在《农产品进出口月度报告》中公开发布农产品月度出口的单向价格指数;直到2005年2月才开始同时发布进、出口双向的价格指数。此外,商务部还针对农产品的主要进、出口市场分别测算得到针对主要贸易市场的农产品对外贸易价格指数。特别地,从2005年6月起商务部针对某些重点产品 进行测算,在重点产品层次上得到进、出口双向价格指数。这样商务部编制并发布的我国农产品对外贸易价格指数体系是包括总体、重点国别地区和重点产品三个层次在内的指标体系。 二、对外贸易价格指数测算方法回顾 鉴于目前编制并发布农产品对外贸易价格指数的机构只有WTO和中国商务部,本文首先对上述两个机构采用的对外贸易价格指数测算方法分别做出讨论。 1.WTO的贸易价格指数测算方法 基于SITC(Rev.3)的产品分类标准,WTO的ITS仅仅发布了部分农产品的全球总体对外贸易指数,并没有涉及国别数据。相应地,ITS只对全球总体指数的测算程序做了说明,没有对国别数据的来源或测算方法做出明确解释。根据WTO的解释,ITS全球农产品总体对外贸易指数的测算分两个步骤完成:首先由秘书处做出估计,将各国的缺失数据补齐;然后将各国数据加总得到全球总体指数。对外贸易价格指数的测算过程分别在国别和国际两个层次上完成。由于对国别价格指数测算程序的解释并不完整,WTO的对外贸易价格指数测算方法对国别贸易指数的获得并不具有现实的借鉴意义。 2.商务部的贸易价格指数测算方法 商务部编制并公开发布的我国农产品对外贸易价格指数数据使用帕氏公式测算得到。就测算方法而言,除了在《农产品进出口月度报告》中注明其报告的价格指数为全样本指数外,商务部并没有对价格指数的具体测算程序进一步解释。考虑到帕氏公式为固定权重的指数公式,公式本身的性质决定了只有在考察期内价格指数的数量权重变化不大的情况下,使用该公式得到的价格指数结果才能较为客观的反映我国农产品对外贸易价格指数的综合变动规律;否则使用固定数量权重的价格指数公式进行测算是有风险的。 由于国别对外贸易价格指数的测算方法同样适用于农产品贸易价格指数的测算,作者将考察的范围扩大,对国别对外贸易价格指数的测算方法做出讨论。除WTO和商务部外,目前测算并发布国别对外贸易价格指数的国际组织有UNCTAD、IMF和WB等;国内机构包括海关总署和国家统计局。其中只有海关总署对其发布的对外贸易价格指数的测算方法做了说明。 3.海关总署的贸易价格指数测算方法 海关总署从1994年开始试编 我国的对外贸易指数,这也是国内指数编制方面的最早尝试。2000年海关总署对贸易指数的编制系统做了修订,并于2003年正式启用新方案编制我国对外贸易指数并在内部资料上刊登。2005年起海关总署正式编制出版《中国对外贸易指数》月刊,并在季末和年末编制季度和年度指数增刊。 海关总署的《中国对外贸易指数编制说明》是目前所能见到的对外贸易价格指数编制说明中最为详细的一个。根据编制说明的解释,海关总署发布的对外贸易价格指数采用费氏公式编制。价格指数测算之前首先对样本数据做筛选,根据最详细的海关进、出口记录计算出同种产品的价格变异系数,从中挑选出部分HS的8位税目上的产品作为计算样本,样本覆盖率占全部贸易产品的70%以上。获得测算样本后,在HS的8位税目数据上计算单位价格指数,然后使用费氏公式测算得到6 位税目上的价格指数,进而向4位目、2位目和全部贸易产品汇总,最后得到我国的对外贸易价格指数。 三、对外贸易价格指数测算方法评析 现有的农产品对外贸易价格指数测算方法并不完善,不能满足农产品对外贸易价格指数测算的实际需要。海关总署的贸易价格指数编制程序较为细致,对农产品对外贸易价格指数的编制工作具有较强的借鉴意义。 1.海关总署贸易价格指数测算方法的优势 海关总署的指数测算方法有三个显见的优势: 一是其公开发布的对外贸易价格指数使用费氏公式测算得到,这种同时考虑两期数量权重的价格指数公式避免了固定权重公式对指数测算结果可能造成的影响。 二是海关总署的价格指数测算建立在8位税目数据基础上,因此能在最大程度上降低价格指数的混频程度。农产品的经济属性差异大,在8位税目数据层次上进行指数测算的数据处理思路对农产品价格指数的测算有明显的借鉴意义。 三是海关总署的价格指数测算程序从8位税目数据开始,进而向6位目、4位目、2位目和全部产品汇总。这种测算程序反映了指数在层级之间的递推关系。农产品的多样化特征显著,使得分类价格指数更能反映农产品贸易价格的变动规律。价格指数在层级之间的递推关系为建立农产品分类指数提供了思路。 2.海关总署贸易价格指数测算方法的不足 借助变异系数指标,海关总署在全部贸易数据中人为地剔除了某些税号上的数据。这种数据处理方法显著降低了数据的变异程度、有利于价格指数的测算;但同时具有两个明显不足: 一是这样得到的价格指数不再是全样本指数。仅仅根据变异系数剔除数据,有可能导致某些重要信息的丢失,从而无法全面、客观反映全部贸易品价格的综合变动规律。 二是参与测算的样本数据占全部贸易产品的70%以上,从一定程度上讲属于固定权重的指数测算方法。这种人为剔除数据的处理方法存在的问题是,对贸易产品结构变动产生的影响估计不足。如果贸易产品结构在考察期间变动显著,则价格指数的测算结果无法反映贸易品价格的真正变动规律。 四、农产品对外贸易价格指数测算中的关键问题 我国农产品对外贸易价格指数体系涉及数据少、时间序列短,尚未包括分类层次上的指数信息。对外贸易价格指数体系的不完善影响了农产品贸易领域内相关研究的展开。本文认为,农产品对外贸易价格指数测算应注意以下三个关键问题: 1.建立农产品分类指数。农产品范围广、产品经济属性差异大,使得分类指数更能客观反映农产品对外贸易价格的变动规律。 2.选择合适的价格指数测算公式。可供使用的指数公式很多,不同的指数公式具有不同的统计性质,因而适用于不同的情况。因此有必要对现有的价格指数测算公式做比较,并对使用不同公式得到的结果做出预期。根据研究的具体需要选择某一个或某几个指数公式用于农产品价格指数测算。 3.测算全样本价格指数。这种处理方法会将很多变异较大的数据包括在内,但是避免了人为剔除某些税号上的数据可能导致的某些重要信息的丢失,这样得到的价格指数结果能够更为客观的反映农产品贸易价格的综合变动规律。 参考文献: 商务部:农产品进出口月度报告[EB/OL].http://wms.mofcom.gov.cn 海关总署:中国对外贸易指数编制说明[EB/OL].http://www.chinacustomsstat.com

测算方法论文篇2

中图分类号: TN915.08?34; TP309.5 文献标识码: A 文章编号: 1004?373X(2017)03?0085?04

Research and implementation of malicious program detection algorithm

LU Tao

(College of Information Engineering, Nanning University, Nanning 530200, China)

Abstract: Since the malicious program has simple invasion way, massive hidden ways and fast update speed, and the traditional detection algorithm dealing with the malicious program has high false alarm rate of the detection, poor update and tracking ability, a malware program detection algorithm based on probability theory and linear superposition was designed. The algorithm is composed of the behavior feature extraction module, behavior feature detection module and malicious program output module. The program behavior feature in the network under test are extracted by means of the behavior feature extraction module, and its concrete behavior and hidden behavior are dynamically detected via the behavior feature detection module. The malicious degree file of the program is given, and taken as the input of the malicious program output module. According to the designed linear superposition function and depth detection flow chart, the malicious program was detected and output. The experimental results show that the algorithm has low false alarm rate of the detection, and good capacity to track the updated malicious program.

Keywords: malicious program; detection algorithm; malicious degree file; false alarm rate of detection

0 引 言

2009年,源于某视频网站遭受的恶意程序非法入侵,致使网络服务器出现瘫痪,使电子信息厂商对恶意程序检测算法的研究与实现格外关注[1?3]。恶意程序的入侵方式较为简单、隐藏方式众多,且更新速度非常快,导致传统的恶意程序检测算法无法对其进行有效应对,检测误报率高且恶意程序更新追踪能力不佳。因而,设计了一种基于概率论和线性叠加的恶意程序检测算法[4?6]。

文献[7]对基于人脑解析的恶意程序检测算法进行设计,这种算法的设计人员意识到对恶意程序特征的准确提取是算法高水平检测的基础,而计算机往往无法对恶意程序特征进行深度挖掘,故利用构建人脑解析模型增强算法的恶意程序更新追踪能力。这种算法需要大量技术人员实时监管,实现较为不易。文献[8]对基于贝叶斯定理的恶意程序检测算法进行设计,其检测误报率较低,但这种算法需要在相对独立的环境中进行检测工作,这一点将恶意程序的更新隔绝在检测环境外,因此几乎不具备恶意程序更新追踪能力。文献[9]对基于机器学习的恶意程序检测算法进行设计,这种方法的恶意程序更新追踪能力较强,但机器学习只能针对以往出现过的恶意程序进行检测,因此算法的检测误报率较高。文献[10]对基于线性叠加的恶意程序检测算法进行设计,这种方法的z测误报率较低且拥有较强的恶意程序更新追踪能力。但线性叠加只考虑到了恶意程序的具体行为对网络造成的伤害,若想进一步提高该算法的检测水平,还需通过特定手段对恶意程序的隐含行为进行挖掘和双向检测。

通过对传统恶意程序检测算法进行分析,设计了基于概率论和线性叠加的恶意程序检测算法,利用概率论手段对恶意程序的行为进行深度分析,对恶意程度文件进行线性叠加检测,减少算法的检测误报率,增强算法的恶意程序更新追踪能力。

1 恶意程序检测算法设计

基于概率论和线性叠加的恶意程序检测算法由行为特征提取模块、行为特征检测模块和恶意程序输出模块组成。行为特征提取模块对被测网络中程序的行为特征进行提取,行为特征检测模块利用概率论手段对程序行为特征的恶意程度进行分析。恶意程序输出模块利用线性叠加函数检测恶意程序并输出。

1.1 行为特征提取模块设计

基于概率论和线性叠加的恶意程序检测算法的行为特征提取模块主要由控制芯片组、网络交互器和模拟器组成,其结构如图1所示。

由图1可知,控制芯片组决定着整个行为特征提取模块的工作水平,其负责对模块提取工作中产生的中断请求和直接内存访问进行控制,控制芯片组的接口电路图如图2所示。网络交互器可实现程序在被测网络和行为特征提取模块间进行数据交互。模拟器用于对被测网络进行虚拟化,并提供程序数据交互接口。网络交互器和模拟器均有两组,分别安放在网络入口和出口处。

由图2可知,基于概率论和线性叠加的恶意程序检测算法每进行一次检测工作,都要利用特征提取模块从被测网络提取程序的行为特征,这有助于增强算法的恶意程序更新追踪能力。为了提高行为特征提取模块的整体效率,需要在控制芯片组中写入PE文件。

PE文件是能够在网络中进行直接提取的文件的统称,这类文件是在设计基于概率论和线性叠加的恶意程序检测算法前经由多次实践获取到的。PE文件的内容主要是网络共通非恶意程序,这些程序的内部机制较为完善,永久不会被恶意行为特征入侵。因此,行为特征提取模块可以对PE文件进行忽略提取,以提高模块整体效率。同时,用户也可手动开启行为特征提取模块对PE文件进行提取。

随后,行为特征检测模块将对行为特征提取模块的提取结果进行分析。

1.2 行为特征检测模块设计

行为特征检测模块基于概率论和线性叠加的恶意程序检测算法,对特征提取模块提取结果的分析使用概率论手段,旨在获取恶意程序的具体行为和隐含行为。恶意程序行为包括具体行为和隐含行为,如图3所示。

由图3可知,具体行为是指恶意程序直接利用网络漏洞进行入侵的行为,这种行为比较容易被发现;隐含行为是指恶意程序设计者模仿非恶意程序行为进行设计,用于迷惑用户发出不正当指令的行为,包括行动指令行为和指令调用行为,这种行为具有一定的传播和侵蚀能力,而且分析较为困难。

行为特征检测模块对恶意程序行为的分析是一种动态检测方式。在具体行为下,恶意程序的恶意代码会直接体现在行为文件中,行为文件数据量很大,用户通常不会主动查阅,这就需要借助概率论构建概率论测试文件对行为文件中的具体行为进行定位和审查,得出程序恶意程度文件,再经由恶意程序输出模块进行深度检测。

在恶意程序的隐含行为下,指令行为和指令调用行为均会在恶意程序的行为文件中嵌入指令代码,这些指令代码可用概率论进行动态检测,如图4所示。

由图4可知,行为特征检测模块先进行恶意文件隐含行为的文件格式分析,利用概率论对文件格式进行模拟,建立概率论测试文件。行为特征检测模块可根据概率论测试文件获取虚拟程序和程序中的二进制代码,对二者同时进行动态检测可获取程序恶意程度文件。

将程序的具体行为和隐含行为的程序恶意程度文件组合起来,共同传至恶意程序输出模块进行深度检测。

2 恶意程序检测算法软件设计

基于概率论和线性叠加的恶意程序检测算法在软件中给出行为特征检测模块的概率论分析函数,以及恶意程序输出模块的线性叠加函数和深度检测流程。

2.1 概率论分析函数和线性叠加函数设计

概率论分析函数的作用是对程序行为特征的恶意程度进行挖掘。将行为特征提取模块的提取结果组成集合[K],选取[K]中阈值的最大值[KMAX]和最小值[KMIN](下角标代表二者的位置坐标值),则恶意程序与非恶意程序间阈值的概率差[M]可表示为:

式中[Lk]表示行为特征[k]的阈值。[Bk]值越大,程序行为特征的恶意程度就越高。

用[Ak]表示程序的被测点,[ak]表示被测点行为阈值,则线性叠加函数[T]可表示为:

2.2 恶意程序输出模块流程设计

基于概率论和线性叠加的恶意程序检测算法设计的恶意程序输出模块的深度检测流程,如图5所示。

由图5可知,恶意程序输出模块的检测实质是利用线性叠加函数将特征检测模块的程序恶意程度文件串联起来,给出线性叠加函数[T]值。基于概率论和线性叠加的恶意程序检测算法对误报率的要求在0.4%以下,故根据经验将恶意程序的预设值设为15,如果[T≥15]则判定被测程序为恶意程序。

恶意程序被检测出来后,恶意程序输出模块将构建恶意程序行为文件,作为日后检测工作的参考数据,并将该文件上传至云端,同时向用户发出警报。

3 实验验证

实验对本文算法、人脑解析算法和机器学习算法的检测误报率和恶意程序更新追踪能力进行对比验证。在被测网络中给出100个程序并产生2 000个程序行为,其中的恶意行为有300个,恶意程序有18个。

3.1 检测误报率验证

恶意程序检测算法的检测误报率分为恶意程序漏报率和非恶意程序误报率。记录下实验中检测到第15,30,45,60,85,100个程序时,算法的恶意程序漏报率和非阂獬绦蛭蟊率的各自合计值,如图6,图7所示。

测算方法论文篇3

中图分类号:P315 文献标识码:A

微地震属于一种小型地震,经常发生在地下矿井深部开采过程中的一种不可避免的现象。在20世纪80年代中期发展起来的微震探测技术源于声发射学和地震学,是区别于常规地震的地球物理勘探技术,根据声发射检测技术演化发展起来,主要应用于油气工业中。而探测可以导致微地震的地质活动,有着重大的现实意义和指导意义。

1 物探技术研究进展

20世纪70年代初期,为了确认开发井的目标和叙述辅助的断裂层,水力压裂微震探测技术始于地热领域。70年代末,美国Los Alamos国家实验室在Fenten山热干岩进行了3年的井下微震观测研究的现场实验,验证了水力裂缝的方位可以通过水力压裂时产生的水平微震来确定。90年代以后,荷兰飞利浦、加拿大金斯敦ESG组织、英国KEELE大学、日本JAPEX研究生中心等机构对于微震检测技术在油气工业中的应用提供了较多的理论与实验支撑。国内关于微震探测技术的研发相对较晚,但近年来,从基础理论研究和自主研发方面都取得了很大的成果。在基础理论研究方面,相继提出了瑞雷波频散曲线的正反演、遗传算法和局域搜索算法的联合反演、射线追踪法以及滤波技术等研究方法。在自主研发方面,主要有微震探测系统、基于三分量检波器的探测系统、遥测地震仪和基于Labview的微震探测系统等。

2 探测技术研究方法

2.1 射线追踪正演算法

本文主要通过基于射线法进行正演研究。射线法,可以利用不断更新的射线路径,对各种复杂的地质结构选择地震波在介质中的最佳运动轨迹。同时,迭代法可以通过结点的增减,来完成地震波传播路径的探测工作。综合微变网格法,经过设计得到复杂模型微震射线路径追踪法。

2.2 非线性反演算法

在探测过程中,非线性最优算法发展最为迅速,需要通过微震资料的反演来定位震源和了解速度场变化。非线性反演方法中应用最广泛的主要有遗传算法(GA,Genetic Algorithm)和人工神经网络法(ANN,Artificial Neural Network)方法中的BP神经网络。本文将GA算法和BP算法结合,通过联合反演方法讨论微震震源的定位反演。

2.2.1 遗传算法反演

遗传算法,是一种全局最优算法,可以结合定向和随机搜索方法,是模拟达尔文生物进化论的自然选择与遗传学机理的生物进化过程和机制的计算模型。1975年,J. Holland教授提出了遗传算法。目前,遗传算法发展完善,有着搜索过程多维化、简单化、适应性强以及全局性的特点。通过对遗传算法、加速收敛和正演参数的确定,明确介质模型参数的搜索范围,最后对遗传算法获取的反演数据进行处理。

2.2.2 BP神经网络算法反演

二十世纪80年代,人工神经网络的研究进入了一个新高潮。它易于处理复杂非线性问题,具有持久性和适时预报性的特点,被广泛应用于多个领域。其中,BP人工神经网络(BP,Back Propagation),是目前应用最为广泛的人工神经网络模型之一,是一种按误差逆传播算法训练的多层前馈网络,是可以计算单个权值变化引起网络性能变化值的较为简单的方法,在地球物理勘测方面发挥了重大作用。BP神经网络反演方法的主要步骤分为两部分,分别为学习训练和迭代反演。

2.2.3 GA-BP联合反演方法

GA算法与BP算法的混合,可以结合全局最优算法和局部最优算法的优点,弥补对方的缺点,使其交叉变异率具备自学习、自适应等特征,并且能够快捷、有效的获取最优解,提供神经网络的预测能力。进行GA算法和BP算法的联合反演,二者需持续运行,并且按照一定的比例进行。图1为基于混合算法的微地震震源定位反演算法流程。

3 研究展望

发展基于遗传算法的全局混合优化算法已成为新的发展趋势。而对于非线性反演,尤其是面对地球物理资料联合反演,通过算法指挥由不同反演方法和迭代过程组织成系统,使之输出分辨率最优而方差最小的地球物理介质模型,是其非常重要的研究方向。

参考文献

测算方法论文篇4

中图分类号:TM714 文献标识码:A 文章编号:1009-2374(2013)32-0114-02

1 电力负荷预测综述

负荷预测的前提是充分考虑关键系统参数、自然环境、社会政策和增容决策等条件,探索出一套能够科学处理过往数据、有效预测未来数据的数学算法,并保证预测结果只在小范围内波动,确定某些特殊时刻的负荷值。根据预测期限,负荷预测分为超短期预测、短期预测、中期预测和长期预测。

2 电力负荷预测方法综述

2.1 人工神经网络

人工神经网络属于高度非线性系统,它模仿人脑神经系统进行自主学习和问题处理。人工神经网络有很多神经元节点,它们具有并行运算功能,互相之间由相应权值连接以构成网络,借助激励函数,实现输入变量序列到输出变量序列之间的非线性映射。人工神经网络对非线性、非结构性、模糊性规律的适应性很强,具有良好的记忆功能、鲁棒性、映度以及完备的自学习能力,这也使得该技术成为近年来负荷预测领域的研究重点。有学者采用地柜人工神经网络系统预测某地区电力负荷短期情况,借助梯度下降算法,大大提高收敛速度,仿真结果表明,该方法收敛速度和运算结果相比传统方法有很大提升。但是,典型人工神经网络也存在学习参数设置不便、收敛缓慢、运算量大、网络结构模糊等弊端。有研究在相关论文中针对BP算法陷入局部极小的问题进行了讨论,并提出了相应的解决方案。另外,神经网络如能结合遗传算法增强全局搜索能力,加强局部寻优能力构成遗传神经网络,则能进一步加快运算速度,提高结果准确性。采用神经网络进行电力系统负荷预测时,网络输入变量的选择是一个关键点,为了优化变量甄选,有人提出使用模糊粗糙集理论先对信息进行预处理;以此算法结果作为BP网络的预设变量开展训练。该方法将历史时间序列、外部气象条件等各种因素都考虑在内,为寻找神经网络输入变量提供了一种新思路。同时,规避了因为输入变量规模过于庞大而引起的网络拓扑结构复杂、收敛速度慢等缺陷。相关的实验表明,该方法行之有效。

2.2 模糊预测法

该方法基于模糊理论,先行分析过往的工作经验、历史数据,以一种规则的形式呈现出来,并抽象出可在计算机上运行的机读代码,进而展开各种计算工作。模糊预测法能够很明确地描述专家意图,对电力系统中不规则现象进行描述,很适用于中长期电力负荷预测;但模糊预测法学习能力差,极易受到人工干扰。模糊理论应用于电力负荷预测时,有三种常见数学模型,即:指数平滑过渡法、线性回归法、聚类预测法,三种数学模型各有千秋,它们的预测精度都很高,相比传统算法测量误差也小得多。有研究表明,基于最佳聚类F选优法的改进型模糊聚类电力负荷预测算法,在计算年度用电量时,预测结果很准确。有部门基于该算法对增城地区2005年和2010年的年度用电量进行预测,结果与实际测量相差不大。神经网络与模糊逻辑算法组合使用,相比单一神经网络算法,充分利用了神经网络强大的学习功能,又洗去了模糊逻辑主观经验方面的劣势,考虑了温度变化和节假期对系统负荷的影响,能够提高负荷预测结果准确度,特别是对周末和节假期负荷预测很有效。也有学者通过RBF试图寻找负荷变化的一般规律,结合模糊理论计算负荷尖峰值和低估值,一定程度上解决了负荷影响因素不明确的问题。该方法充分利用了神经网络和模糊推理理论在处理不确定参数方面的独到之处,很好地改善了预测精度。

2.3 数据挖掘

顾名思义,数据挖掘就是从浩如烟海的数据中挖掘出隐含信息,并尽力将其表述为直观易懂的形式。在处理大数据、剔除冗余信息方面优势很大。决策树、神经网络、关联规则、聚类分析、统计学模糊集、粗糙集在各领域的数据挖掘工作中得到了重要应用。有人根据数据挖掘过程中时间序列的相似性原理,研究电力负荷预测方法,获得了很好的应用效果。基于最优区间划分和单调递减阈值函数聚类法,结合KOHONEN网绘制负荷变化曲线,修正死区数据。也有学者利用数据挖掘技术的结果作为向量机训练样本,减少了数据处理规模,提高了预测速度和运算精度。

2.4 专家系统

专家系统加入了人类探索自然过程中的知识经验,模拟人类思维决策过程,求解问题的过程类似于人类专家的思维模式。专家系统比模糊预测法优越的一点是,给出相当于专家水平的量化计算机语言,转化了人类难以量化的经验数据,透明性和交互性极佳,并能给出结论的对应缘由,方便工程人员检查推理过程是否存在错误,并及时更正。由于算法相对复杂,运行速度较慢,学习能力也一般,无法较好地处理模糊数据,对规则很依赖,普适性较差,不能推广到所有系统。有文献分析认为,专家系统可以准确预测中长期负荷,要考虑原始数据预处理、冲击负荷影响、负荷周期等因素,保证负荷预测精度,并尽量贴近生产实际需要。专家系统的模糊推理规则形式决定了规则数目,合理的推理规则能够简化运输,也为人工总结专家经验并优化规则提供了可能性,提高了算法速度。有学者在普通专家系统的基础上研发了基于案例推理的经验导向型专家系统,相关实验结果证明该方法获取知识较为简洁、记忆能力好、用户界面友好,在实用性方面优于规则专家系统和人工神经网络技术。也有工程人员结合径向基神经网络专家系统,并基于该模型开发出数学运算软件,在西北电网得到了应用,该方法比BP神经网络的预测精度更高、实用性更好。

2.5 支持向量机

SVW基于统计学理论,在有限样本前提下,提出满足VC维理论和结构风险最小化原则的机器学习规律,通用性好、全局最优、计算速度快。但要依赖经验确定初值和核心运算函数,受人为因素影响较大。而且,对模糊现象的描述能力一般,模型误差会导致收敛值与实际值相去甚远。蚁群优化算法能够对其进行优化,在短期负荷预测中效果甚佳。经过大量实践,最小二乘支持向量机回归算法,很适用于短期负荷预测,借助不同时刻的样本训练,以最优线性回归函数为算法依据,在尽可能减小负荷样本点漂移的基础上,又缩小了泛化误差上限,具有较好的前瞻性。还有人将模糊回归法植入支持向量机模型,不仅提升了预测精度,而且提供了更多运行信息。

3 结语

本文对常见的智能预测技术进行了全面分析。我们不难看出,单一负荷预测法很难满足实际要求,应该结合地区状况选择方法组合,唯有如此才能取得更好的电力预测效果,这也意味着组合预测将势必成为以后的研究热点。

参考文献

测算方法论文篇5

中图分类号:TN929.5 文献标识码:A 文章编号:1674-098X(2016)09(a)-0178-02

目前基站的电磁辐射计算都是基于电磁辐射体为点源的理论公式,而实际测量结果往往与理论计算结果相差很大。因此,该文基于数学分析方法对移动通信基站电磁辐射实际测量结果进行建模,通过模拟得出的经验公式帮助工程计算。

1 理论计算和实际测量

1.1 理论计算

根据《辐射环境保护管理导则――电磁辐射监测仪器和方法》(HJ/T10.2-1996),功率密度S按照

(1)

其中,S楣β拭芏龋W/m2;取单个项目的贡献管理限值0.08 W/m2。P为天线口功率,W;G为天线增益,倍数;d为离天线直线距离,m。

以某种型号的基站为例,其天线详细参数为:频段935~954 MHz,载频数为4,天线挂高40 m,0°俯角,增益15.5dBi,15W/载频。

根据公式(1),代入相关参数,得到A基站T型号天线的功率密度理论计算值,距离天线2 m、4 m、8 m、12 m、16m、20 m、24 m具体数值分别为(单位:×10-2 W/m2):671.59、167.90、41.97、18.66、10.49、6.72、4.66。

1.2 实际测量

按照《辐射环境保护管理导则-电磁辐射监测仪器和方法》(HJ/T10.2-1996)、《移动通信基站电磁辐射环境监测方法》(试行)及仪器操作规程对A基站T型号天线进行实际测量。

测量时间:上午10:00~11:00;天气:晴好;测量仪器:NBM-550型综合场强仪,探头型号为EF0391,量程为100 kHz~3 GHz,在检定有效期内。距离天线2 m、4 m、8 m、12 m、16 m、20 m、24 m的具体测量结果分别为(单位:×10-2 W/m2):420.85、123.98、31.84、17.91、13.29、6.88、4.53。

1.3 对比分析

通过对比,可以看出理论计算与实际测量值之间存在巨大差异。这是由于理论计算值是按照天线主瓣方向进行预测,而实际测量时,限于实际情况,测点位置往往不在主瓣范围之内,因此实际测量值与理论预测值相差很大。

随着距离的增大,因为电磁辐射和距离的平方成反比,电磁场能量迅速减弱,因此,距离天线越远,理论预测值与实际测量值越来越接近。

2 数值分析建模

由于工程实际需要,可以用数值分析的方法来模拟建立符合实际测量值的模型,从而解决未测量点的预测问题。

2.1 插值法

由于实际测量结果是趋于收敛的,因此,首先考虑使用插值多项式建模[1]。根据实测数据,采用Newton插值法[2],利用距离天线2 m、4 m、8 m和12 m,4个点位数据作为节点数据,则根据Newton插值法计算差商,可得模拟多项式N(x)=420.85-148.435(x-2)+20.9(x-2)(x-4)-1.84559375(x-2)(x-4)(x-8)。代入x=20进行检验,则N(20)=-2610.1736,与实际测量值6.88明显不符。

原因分析:由于高次插值的Runge现象,即在零点附近逼近程度较好,在其他地方误差就很大,因此,Newton插值法不适用。

2.2 逼近法

根据实测值和预测值的曲线,采用最佳平方逼近的最小二乘法[3]进行拟合。

根据数据,初步判别可采用y=axb函数建模,其中功率密度为y,与天线的距离为x。将实际测量结果进行转换,y=lny、x=lnx。将由于y=axb两边取自然对数,则y=a0+a1X,因此,其正规方程组为。其中s0,s1Xi,s2Xi2,T0Yi,T1XiTi。

3 对比分析

将该基站的理论预测值、实际测量值和拟合函数算值进行对比,如图1所示。

通过对比,可以很明显地看出,拟合函数算值与实测结果两条曲线基本是重合的,因此,采用最小二乘法对实际测量结果进行建模是可行的。

4 结语

在实际工作中,可以只测量基站一条直线方向4个点位的电磁辐射数值,利用最小二乘法对其进行建模,从而达到掌握该方向上实际电磁辐射分布的目的,这不仅大大减少了工作量,也为进一步探究基站周围电磁场分布提供了一个新思路。

参考文献

测算方法论文篇6

中图分类号:TP317.4

文献标志码:A

0引言

随着3G移动技术和视频监控技术的不断发展,如何提高压缩率、节省存储空间并高效地传输视频信号成为视频压缩领域的一个重要研究问题。考虑到多数信号是可压缩的,Donoho等在2006年提出了一种新的信号获取理论:压缩传感(Compressed Sensing, CS)[1-2]理论,突破了传统Nyquist方法采样率不小于最高频率两倍的限制。该理论针对稀疏信号,合并了采样和压缩两个过程,直接将高维信号投影到低维空间,从而实现欠Nyquist采样[3],有效地缓解了编码端的压力[4]。因视频由多帧图像构成,本身含有大量空间冗余(静止图像行列相邻点的相关性)信息,是可以稀疏表示的,因此可以根据CS理论对视频帧进行压缩和重构。近年来,国内外很多学者都开始对视频的压缩传感方法进行研究,以求在保证视频重构质量的前提下降低视频采集端的代价。文献[4]将三维双数复数小波(3D DualTree Complex Wavelet Transform, 3D DTCWT)作为视频的稀疏变换域,结合迭代收缩(Iterative Shrinkage/Threshold, IST)算法实现了视频的压缩重构,得到了较好的结果,但对快速运动的视频表现不很理想。文献[5]提出了一种分布式视频压缩传感方法(Distributed Compressed Video Sensing, DCVS),其本质是利用压缩传感理论解决分布式视频压缩编码问题,实现了低复杂度编码,在实际应用(如;THz成像)中有很好的前景。而为了提高利用CS理论进行视频压缩重构的质量,本文提出了一种基于运动估计和回溯自适应匹配追踪的视频压缩传感算法。

本文考虑到视频中物体的运动具有时域上的相关性(连续帧的相似性),若直接对视频逐帧使用CS方法进行帧内编码,将出现因帧间抖动而产生的图像模糊,影响视觉质量。参考现有的视频压缩编码技术,如MPEG系列标准的视频压缩编码技术,其主要利用了运动估计和补偿来消除帧间的时域相关性。因此,本文将结合压缩传感理论和运动估计和补偿技术来实现视频的压缩传感[6-7],以获取良好的视频压缩重构图像。

文献[8]提出了一种回溯自适应正交匹配追踪(Backtrackingbased Adaptive Orthogonal Matching Pursuit, BAOMP)算法,在传统的正交匹配追踪(Orthogonal Matching Pursuit, OMP)中结合了一种回溯算法。其本质是在每次迭代时检测之前原子的可靠性,然后删除不可靠原子,使迭代结果更优,且可实现稀疏度的自适应。这种算法在获得良好重构质量的同时继承了OMP算法低复杂度的优点。因此,为了得到更精确的解码结果,本文选用BAOMP算法作为重构算法,并实验对比了该算法和几种现有算法的重构效果。

3实验结果及分析

实验选取Robot序列的一部分(256×256,64帧)作为测试序列,比较了采用本文算法和对视频帧逐帧独立使用CS算法图像效果,如图5所示。实验将每个视频帧组GOP设为8,以测量比r1=0.8和r2=0.3分别对每个GOP的关键帧和非关键帧对视频帧进行独立随机测量,选择具有移位不变性和良好方向选择性的双树复数小波(DualTree Complex Wavelet Transform, DTCWT)作为稀疏基,BAOMP算法重构关键帧及帧间预测残差。为了降低运算复杂度,在解码时采用EARS快速搜索算法,选用16×16块,以绝对误差和(Sum of Absolute Difference, SAD)作为块匹配准则,以前向、后向和双向补偿预测方式获取补偿帧。在逐帧重构时也同样选用随机测量矩阵和DTCWT稀疏基,测量比设为r=0.3。

测算方法论文篇7

【关键词】压缩感知 重构算法 图像去噪 稀疏表示

1 图像去噪介绍

1.1 图像去噪意义

图像去噪结合了信号处理、传感器、人工智能和计算机等现代高科技技术,其原理是:将获得和输入过程中受到各种噪声污染的图像,利用有关计算机的一定算法去除噪声并且尽可能多的保留原始图像主要特征,更重要的是保护边缘和细节信息,输出一幅更适合于人眼观察或计算机能够进一步研究的去噪图像。去噪后的图像可信度更高,图像更清晰,更适合人眼检测和计算机识别,分析。目前图像去噪技术在遥感图像、自动识别、医学图像处理、计算机视觉等更多领域发挥着重要作用。

1.2 图像去噪的研究现状

近年来,国内外对图像去噪的研究算法有很多种,现在主要的方法是稀疏分解去噪方法,稀疏分解去噪原理是把带噪信号在过完备原子库上进行稀疏表示,仅用若干个较大的表示系数重构原信号,而屏蔽了部分小系数包含的噪声成分,从而实现信号的去噪。稀疏分解使信号更加简洁、自适应的表示成若干基的线性组合,更加全面详细地表示信号涵盖的某些特征,更加有效地将信号和噪声分离开来。基于稀疏表示的图像去噪方法是根据所研究对象是否为图像的稀疏成分把图像中的有用信息和噪声进行区分。图像中的有用信息一般具有一定结构,稀疏表示过程中选取的原子能够表示这些特定结构;然而图像中的噪声是随机的,且没有结构的,因此无法用字典中的原子表示。这样就可以将图像与噪声相区别,以达到去除噪声的目的。

2 压缩感知的理论

压缩感知(CS)是一种利用信号的可压缩性或者稀疏性对信号进行重构的技术。压缩感知的优势是降低了采样率,直接获得稀疏的信号表示,大大缩减了数据信息的获取时间和存储空间。图1给出了压缩感知的理论过程。

压缩感知包括三个方面:

2.1 信号的稀疏表示

文献[10]给出了稀疏表示的数学定义:信号X在正交基Ψ下的变换系数向量为=ΨTX,假如对于0

如何找到信号最合适的稀疏系数向量?这是压缩感知理论的基本和前提,只有找到最佳的基表示,才能确保信号的稀疏度,从而确保信号的恢复精度。而信号的稀疏化是由稀疏系数 的衰减速度决定的,衰减的越快表示信号的稀疏性越好,其满足以下式子:

其中r=1/p 1/2,0

除了标准正交基之外,冗余字典法是现在研究的另外一个热点。它是由一组正交基构成的超完备的冗余字典,该方法能够稀疏的表示信号。如何构造一组最佳的某类信号的正交基,以求得信号的最稀疏表示,有利于进一步研究。

2.2 观测矩阵的设计

设计观测矩阵在压缩感知理论中起着至关重要的作用,如何设计测量矩阵是压缩感知中的一个难点。

信号的稀疏化是由稀疏系数t决定的。所以,选取一个大小为M×N(M

y= Φx (2.1)

而 ,则得

y= Φx=Φψt=t (2.2)

其中Φ为测量矩阵,大小为M×N。=Φψ为M×N的矩阵,叫作投影矩阵,y被叫做t在投影矩阵下的测量值,大小为M×1,则压缩感知的测量过程如图2所示。

目前,如何设计观测矩阵是压缩感知理论的一个重要方面。在该理论中,对观测矩阵的束缚是比较松弛的,Donoho给出了构成观测矩阵的三个条件,并指出大多数一致分布的随机矩阵都具有这三个条件,都可作为观测矩阵,如:部分Fourier集、部分Hadamard集、一致分布的随机投影(uniform Random Projection)集等,这与RIP性质进行研究得出的结论相一致.但是,使用上述各种观测矩阵进行观测后,都仅仅能保证以高概率去恢复信号,而不能完全地精确的重构信号。对于任何一个稳定的重构算法是否存在一个真正的确定性的观测矩阵仍是一个有待探讨的问题。

2.3 信号重构

对于压缩感知理论的信号重构问题,首先定义向量X={x1,x2,…xn}的p-范数

(3.1)

当p=0时得到0-范数,它表示的是x中非零项的个数。

因此,在信号x压缩或稀疏的条件下,对欠定方程组Y= Φ=ΦψTX的求解问题就转化为最小0-范数问题:

s.t. Y= Φ=ΦψTX (3.2)

但是,它需要找出X中所有非零项位置的 种可能的线性组合,才能求得最优解。因此,式(3.2)数值计算的求解是很不稳定的。所以,Chen,Donoho和Saunders提出,求解一个更加简易的l1优化问题会产生同样的解(要求Φ与Ψ不相关):

s.t. Y= Φ=ΦΨTX (3.3)

细微的差别就将问题变成了一个凸优化问题,于是可以化简为线性规划问题。而基于1-范数的重构经典算法有内点法(Basis Pursuit,BP)和梯度投影法(Gradient Projection for Sparse Reconstruction,GPSR)。由于1-范数下的算法速率慢,因此,新的快速贪婪算法被逐渐使用,如匹配追踪法(MP)、正交匹配追踪算法(OMP)、压缩采样匹配追踪算法(CoSaMP)、正则正交匹配追踪法(ROMP)和迭代阈值(IHT)等。

3 基于压缩感知的去噪方法

与传统的去噪方法相比,基于压缩感知的去噪方法能够充分发挥稀疏表示的优点,灵活的适应实际问题,降低采样率和数据处理的成本,获取较好的去噪效果。

3.1 基于压缩感知并运用OMP算法的椒盐去噪

椒盐噪声是图像处理中一种十分常见的噪声,其特点是噪声点匀称分散于整幅图像,由于椒盐噪声只破坏了图像结构的一部分,其他大部分的图像信息都是精确的,因此,可以充分利用这部分精确的数据,通过求解最优化问题,重构原图像。

在传统去噪模型 subject to 下,提出了一种椒盐噪声检测的采样,利用阶梯观测矩阵良好的0稀疏定位能力,并利用OMP算法的低复杂性和稳定性,来对信号进行重构。

算法步骤:(1)已知原始含噪信号Z;(2)噪声检测采样,构造阶梯观测矩阵,首先检测信号Z中噪声的位置, 然后将对应的行删除作为阶梯观测矩阵ΦZ;(3)将DCT基作为稀疏变换基;(4)采用OMP算法进行重构。

椒盐去噪算法流程图如1:

3.2 基于压缩感知并运用K-SVD算法的图像去噪

3.2.1 K-SVD算法

为了逼近的得到式(信号yi,最稀疏的解的表示xi和未知字典A),的解,训练一个字典A能够稀疏表示数据 。初始化k=0,并且初始化字典:构建 ,要么使用随机的条目进行计算,要么使用m随机选择的例子来进行计算。标准化A0的数组。k每次增加1,然后开始迭代,并最终得到结果A(k),此过程如图3所示。

稀疏编码阶段:采用一个追求算法来逼近下式的解

s.t. (3.1)

得到了在1≤i≤M下的稀疏表示,它们构成了矩阵X(k)。

更新阶段:使用下面的步骤来更新字典的数组并得到A(k),j0=1,2,…,m对 重复以下步骤:

(1)定义使用原子aj0的例子的组合 (3.2)

(2)计算剩余矩阵,其中xj是矩阵X(k)的j列 (3.3)

(3)约束Ej0,使其选择的数组与Ωj0相一致,并得到 ;

(4)应用SVD分解,通过 来更新字典原子aj0=u1。

停止规则:如果 中的改变足够的小,则停止,否则继续迭代。

3.2.2 去噪算法步骤

(1)将零均值的高斯白噪声加入原始的干净图像中;(2)对X进行初始化,假设X=Y, D=DCT字典;使用OMP算法对每一小块图像求出近似解;(3)对字典进行升级,用K-SVD算法找到最优的D,并求出近似原始图像的稀疏表示;(4)通过OMP算法重构恢复出原始图像,噪声去除。

3.3 基于压缩感知并运用TV重建算法的图像去噪

3.3.1 图像去噪的基本原理

为了得到图像去噪,首先将含有噪声的图像X进行稀疏域变换(X+z)= ψs,式中z为加性噪声。然后对变换后稀疏系数向量s进行测量,即y=Φs。

3.3.2 TV重建算法

重建就是在满足观测值的基础上寻找最稀疏解的过程:s.t Af=p 但是上式是个非凸优化问题,是一个典型的NP-hard问题,不易求解。因此Candes和Donoho提出用1-范数l1来代替0-范数l0进行求解。图像重建问题中,f代表离散化的图像的灰度。这里,我们用fs,t表示图像s行,第t列像素的灰度值,则图像的TV可以表示为:

(3.5)

图像的TV就是其梯度图像的l1范数(一幅图像的l1范数就是图像中每个像素的值的绝对值之和)。在实际的TV范数计算中,式(3.5)对于求导运算不太容易,大多采用l2范数来近似l1范数,并引进一个正的较小的参数τ,以防对TV(f)求导后为无穷大。

(3.6)

式(3.6)对某个像素fs,t求导,得(3.7)式:

(3.7)

通过测量向量y来实现图像X的重建和去噪,实现重建的一个重要前提是信号为稀疏的。图像绝大多数是稀疏的,但是噪声在常规域下是不稀疏的。通过压缩感知理论对噪声进行稀疏变换,然后对变换后的系数进行M维向量,使得多数噪声已经被去除,仅含有M维的噪声向量。如果M值越小,将会有更多的噪声信息被去除。通过对测量的M维噪声向量进行重建,去除混有的少量噪声,同时可以精准重建具有稀疏性的图像,从而达到去除图像中混有的噪声。

3.3.3 去噪算法步骤

(1)对含有噪声的图像X进行DCT变换,获得变换后的稀疏系数s,表示为(X+z)=ψs。(2)构造M× N维测量矩阵Φ,该测量矩阵Φ与稀疏基矩阵ψ是不相干的。然后,通过测量矩阵Φ实现对部分稀疏系数s的测量,获得测量向量y,表示为y=Φs。(3)对测量向量y进行TV重建算法来恢复图像信号x'。

4 小结与研究展望

本文首先介绍了图像去噪和压缩感知的相关理论,并将压缩感知运用到图像去噪中,基于压缩感知,提出了三种去噪方法:基于压缩感知并运用OMP算法的椒盐去噪;基于压缩感知并运用K-SVD算法的图像去噪;基于压缩感知并运用TV重建算法的图像去噪。压缩感知压缩感知的突出优点是降低了采样率,直接获得稀疏的信号的表示,大大减少了数据信息的获取时间以及存储空间,以获取较好的去噪效果。

压缩感知在应用于图像去噪时,应该将重建算法继续加强改进,另外可以将测量矩阵构造和重建算法的构建同时进行改进;同时压缩感知中的观测矩阵绝大多数是随机矩阵,如何用一个稳定的确定性的矩阵来得到观测矩阵,以此来达到更好的去噪效果;此外压缩感知是门新兴的技术,如何进一步的应用到更多的领域也是以后要研究的问题。

参考文献

[1]曹殿元.压缩感知理论及其算法[D].南京邮电大学硕士学位论文,2013.

[2]屈冉.压缩感知算法及其应用研究[D].南京邮电大学硕士学位论文,2013,5.

[3]李博.压缩感知理论的重构算法研究[D].吉林大学硕士学位论文,2013,5.

[4]樊立.压缩感知在图像去噪中的应用研究[D].北方工业大学硕士学位论文, 2013,5.

[5]赵彦孟,宋建新.一种基于压缩感知全变差算法的图像去噪方法[J].电视技 术,2014,38(5).

[6]赵可,潘晋孝,孔慧华.一种改进的自适应TV图像重建算法[J].核电子学与 探测技术,2013,33(10).

[7]史久根,吴文婷,刘胜.基于压缩感知的图像重构算法[J].计算机工程, 2014,40(2).

[8]石光明,刘丹华,高大化等.压缩感知理论及其研究进展[J].电子学报, 2009,37(5).

[9]刘钢.基于压缩感知和稀疏表示理论的图像去噪研究[D].电子科技大学硕士 学位论文,2013,5.

[10]D L pressed sensing[J].IEEE Trans.On Information Theory.2006,52(4):1289-1306.

[11]E pressive Sampling[A].Proceedings of the International Congress of Mathematicians[C].Madrid,Spain,2006,3:1433-1452.

作者简介

测算方法论文篇8

1.基于视频的车辆检测方法

车辆检测是交通图像监控系统的关键,而图像最基本的特征是边缘。所谓边缘是指其周围像素灰度有阶跃变化或屋顶状变化的那些像素的集合。边缘也可以定义为图像局部特性的不连续性。例如,灰度级的突变,纹理结构的突变等。边缘常常意味着一个区域的终结和另一个区域的开始。边缘信息对图像分析和人的视觉都是十分重要的。它是图像分割所依据的最重要的特征,也是纹理特征的重要信息源和形状特征的基础,而图像的纹理形状特征的提取又常常要依赖于图像分割。图像的边缘提取也是图像匹配的基础;因为它是位置的标志,对灰度的变化不敏感,它可作为图像匹配的特征点。

运动边缘的检测可通过计算图像在空间和时间上的差分获取。空间上的差分可用各种已有的边缘检测算法得到,这方面的算法研究已经很成熟, 可以应用现有的算法, 比如Sobel 、Roberts、Prewitt、Canny、拉普拉斯算子等,这些算子在算法复杂度以及效果上有很大的差别,一般的边缘检测方法是对原始车辆图像的每个像素考察它的某个邻域内灰度的变化,利用边缘邻近一阶或二阶方向导数变化规律检测边缘,例如基于微分的边缘检测算子,一阶微分算子有Roberts算子、Sobel算子、Prewitt算子、Canny算子等,二阶微分算子有拉普拉斯算子、Logo算子等。微分算子的一个明显缺点是对噪声较为敏感。由于原始图像往往含有各种噪声,所以用这类算子进行运动车辆边缘检测时常常会有困难,于是只能人为地根据实际情况选用合适的算子。

2.基于小波变换的边缘检测理论

从小波理论入手,构造适当的小波,从多尺度的角度,通过模极大值的方法提取其边缘这种方法可以取得较好的效果,但对选择小波有较为严格的要求。图像的二维小波变换可以分别在图像的行和列的方向上做一维小波变换来得到,在图像的二维小波变换中,为了便于计算,常用的是正交(或双正交),且具紧支撑和至少一阶消失矩的二进小波变换。

首先考虑连续小波变换,假设光滑函数 满足:

3.基于小波变换的边缘检测算法

下面在二进小波变换的基础上定义小波变换在每个尺度上的梯度方向和模:

由于小波变换的结果,通常使图像的能量集中在边缘附近,且在图像灰度值的突变点取得局部极大值,其小波模的极大值反映了边缘点的奇异性,所以通过小波变换可以检测出图像的边缘点。在不同尺度下作小波变换其实质就是用不同频率的带通滤波器对信号作滤波,因此把主要反映噪声频率的那些尺度的小波变换去掉,再把剩余各尺度的小波变换结合起来作反变换,就能得到较好地抑制了噪声的信号。对于图像的边缘检测,求模的局部极大值实质上就是求梯度向量模极大。求出该小波变换的模的局部极大值点,就可以找出图像的边缘点。

测算方法论文篇9

中图分类号:H319.3

文献标识码:A

文章编号:1001-5795(2012)01-0011-0005

自20世纪90年代以来,信息技术的发展对语言交际活动的内容和方式产生了深刻的影响,计算机和网络成为语言交际活动的重要媒介。如今的大学生已习惯上网看新闻、查资料、写邮件、求职、购物、交友等。技术的发展也为语言测试带来了崭新的理念,提供了创新的方法,同时对测试的效度论证提出了挑战。近二十年来,计算机化语言测试(computer-based lan-guage testing,CBLT)的理论和实践研究不断深入,如项目反应理论和题库建设、计算机适应性语言测试(com-puterized adaptive language testing,CALT)、纸笔测试和计算机化测试的等效性研究等。本文将探讨技术对计算机化测试效度的影响,并阐述计算机能力(computerliteracy)与构念(construct)的关系。

1 整体效度观

效度是评价测试的重要质量标准之一,效度论证则是测试研究永恒的主题。随着应用语言学及相关领域理论和实践的发展,语言测试领域对效度的认识也不断深入(Chapelle,1999)。目前,测试领域广为认可的是Messick(1989)的整体效度观。根据整体效度理论,效度是一个具有多方面的整体概念(a unitary butmulti-faceted concept),效度论证须通过多种手段来采集多方面的证据,如测试内容分析、试题或任务分析、测试维度分析、校标关联程度检验、测试表现差异分析、测试后果论证等。《教育和心理测量标准》(AERA/APA/NCME,1999)对效度的阐释依据的就是整体效度理论。

整体效度理论认为,构念效度(Construct Validity)是效度最根本的一个方面,是效度论证的核心,是决定测试的分数解释和结果使用有效性的基础。只有明确界定了构念,才能对效度的其他各个方面进行全面论证。构念效度本身也是一个整体,涵盖内容效度和校标关联效度等,构念效度研究也需要收集各类证据,以论证测试分数与构念之间的关系是否符合理论假设(Bachman,1990;Chapelle,1998)。从测试设计对效度的影响来看,“构念体现不充分”(constructunder-representation)以及“与构念无关的差异”(construct-ir-relevant variance)是对效度构成威胁的两大因素。如果构念效度不理想,测试就可能对教学产生负面的后效(Messick,1989;1996)。因此,要保证测试的效度,测试设计者需要依据相关的理论对构念进行界定,并根据所界定的构念来设计合适的测试任务。

2 计算机对语言测试效度的影响

早在1989年,我国著名语言测试学家桂诗春(1989)就关注了技术对测试的影响,并从测试内容和方法上阐述了计算机化测试的优势。例如,计算机可控制并记录答题时间,记录答题路径,以多种方式呈现多样化的试题材料,实现纸笔难以使用的答题方式,还可通过HELP等功能为答题提供帮助。但是,桂教授也指出了计算机化测试潜在的问题,如计算机的使用使测试与练习的界限变得模糊不清,HELP的引进还会牵涉到一系列的评估问题,需要进一步研究。这里所指的评估问题,核心就是效度问题,即技术将对测试效度产生的影响。

根据整体效度理论,Huff和Sireci(2001)从构念的体现、与构念无关的差异、后果效度等角度总结了计算机对教育测量的效度可能带来的好处和潜在的威胁(表1)。Huff和Sireci认为,计算机化测试(computer-based testing,CBT)可以提高测试任务的真实性,减少与构念无关因素引起的分数差异,使测试更全面、准确地测量其所定义的构念。但是,技术的使用也可能引入与构念无关的干扰因素。例如,如果测试目的不是计算机能力,那么对于计算机熟悉和适应程度参差不齐的考生群体来说,计算机能力成为语言测试的干扰因素。而且,由于计算机的使用与考生的社会经济地位有关,因此这是一个特别烦人的干扰因素。

基于技术对CBT效度影响的利弊分析,Huff和Sireci建议CBT的效度论证应开展纸笔与机考的比较研究,分析计算机能力对测试的影响,降低对测试效度的干扰。而且,效度论证应嵌入测试的设计和开发,即依据Messick的整体效度理论,运用基于认知理论的测试设计模型,在测试开发阶段就充分考虑影响效度的各种因素。

3 计算机化语言测试的发展和效度研究

3.1与纸笔测试的等效性研究

Jamieson(2005)将CBLT的发展分为三个阶段。在第一和第二阶段,效度研究关注的是CBLT与纸笔测试的等效性(equivalence)。第一阶段的CBLT在计算机上实现传统的测试任务和构念,即测试并没有改变构念,但提高了效率;第二阶段的CALT提高了测试的个性化程度和考生兴趣。从技术上来说,这两个阶段的测试方法更先进了,但是从构念上来看,这两个阶段的测试并没有创新,测试者的目标是将测试任务从纸笔模式改成计算机模式,或将词汇、语法等独立的0/1判断的试题设计成适应性模块。因此,这两个阶段的效度研究致力于探索测试模式(test mode)对效度的影响,如不同模式的测试的成绩可比性、答题过程或认知策略运用等(详见Sawaki,2001)。在对比研究中,计算机能力多被视为可能影响计算机化测试效度的干扰因素。

但是,把不同的测试放在同一量表上进行比较,前提是“对测试的构想和心理测量特征的等效性进行定量和定性的研究”(李清华,2006:77)。如果测试的构念不同,即使CBLT与纸笔测试的成绩无显著差异,也无法证明两者等效。Mislevy(1992)在阐述教育测试之间建立对等关系的理论和方法时指出,要比较两个测试的等效性,首先要分析两者的测试目的和所测能力是否一致。对于构念相同的两个测试,可以通过等值(equating)或校准(calibration)把测试结果对等到同一量表上;对于两个构念不同的测试,则需运用推测

(projection)、调适或仲裁(statistical or social modera-tion)来间接地比较测试的结果。

3.2第三阶段的计算机化语言测试

在CBLT发展的第三阶段,借助应用语言学其他领域(如语料库语言学)的进步,CBLT的测试任务设计更具真实性,成绩报道提供更丰富的信息,报道方式更易于考生和其他使用者理解。美国教育考试服务中心推出的托福网考(TOEFL iBT)采用综合技能题型(integrated tasks),语料贴近校园学习和生活,以崭新的设计全面取代了托福纸笔考试;培生语言测试中心推出的培生学术英语测试(PTE Academic),题型丰富多样,而且实现计算机全自动评分;我国的大学英语四、六级网考(IB CET)也采用了与纸笔考试不同的测试设计,并对部分主观题采用计算机自动评分。表2从测试材料及呈现方式、测试任务、分数报道等方面,对比了大学英语四级网考和纸笔考试。

可以看出,网考比纸笔考试采用了更丰富的语言材料,以更多样的方式呈现音频、视频和文字材料,设计了更多类型的测试任务以模拟计算机环境下的各种语言交际活动,测量了考生听说读写各方面的能力。Jamieson(2005)指出,语言测试的真正变革在于利用技术来提高我们对语言能力本质的认识并更好地对语言能力进行测量。因此,要论证真正变革后的CBLT的效度,首要任务是界定测试的构念。

4 计算机化语言测试的构念

4.1受语境制约的局部构念

计算机能力本身并非语言能力的一部分。根据传统的构念定义,语言测试中的计算机能力是产生分数差异的与构念无关的干扰因素,这与Huff和Sireci(2001)的构念理解一致。但是,当计算机成为语言交际的媒介时,交际的语境发生了改变,语言测试该如何定义新的交际语境下的测试构念呢?

自Oller(1979)提出的语言能力不可分观点被否定以来,语言测试研究致力于探索语言能力构念的维度或成分以及各成分之间的交互。Chapelle(1998)阐述了三种不同的构念观:特质观(trait theorist)将构念定义为考生的个体特质,行为主义观(behaviorist)根据交际行为发生的语境来定义构念,交互观(interaction-alist)则从特质与语境的交互角度来定义构念。Bach-man(1990)交际语言能力模型(CLA model)采用的就是交互式构念定义。该模型融入了交际的语境因素,并提出特质与语境交互的媒介是元认知策略,即模型中的策略能力(strategic competence)。

但是,Chalhoub-Deville(2003)认为,CLA模型将语言能力与交际语境看成两个独立的成分,从语言使用者个体的认知层面阐释了两者的交互。因此,CLA模型本质上仍属心理语言学模型,所定义的构念是语言使用者的个体能力(ability in language user)。要准确理解二语能力构念,我们应该从社会一认知层面来阐释构念,将其定义为“语境中的语言使用能力”(ability inlanguage user in context)。Chalhoub-Deville称这种构念为“受语境制约的局部构念”(local context-boundconstruct),并指出,局部构念更充分体现了语言交际的本质,即语言能力和交际语境是一个密不可分的整体,在两者的交互作用下,语言能力和语境都发生了变化。正如Chapelle(1998)所强调,交互式构念不是特质与语境的简单相加,因为交互的结果既改变了特质也同时改变了语境。

4.2计算机化语言测试的构念

根据Chalhoub-Deville对语言能力的理解,我们认为CBLT的构念可以定义为“以计算机为媒介的交际语言能力”,考生个体的语言能力与基于计算机的交际语境相互影响,共同构成计算机化语言测试的构念。因此,计算机能力是与CBLT构念相关的语境因素,CBLT的分数意义是考生在基于计算机的交际语境下所表现出来的语言能力。

为了使测试分数具有可推断性(generalizability),语言测试需要将所测能力与测试方法分开,即根据考生在测试任务所设计的语境中的表现来推断其在不同语境下的语言交际能力。但是,语言测试者不应奢望排除测试方法因素的干扰,因为测试方法所设计的语境与考生能力不可分割。当然,如果过度地强调语境与能力交互的瞬息万变或不确定性,语言测试也无法定义构念,无法通过测试表现对语言能力进行推断。因此,Chalhoub-Deville(2003)指出,构念研究应进一步分析影响语言交际的各种语境因素,因为这些因素与构念密切相关;同时,进一步探索语言能力的转化(transfer),即如何运用内在的能力(internal attributes)来完成不同外部语境(external contexts)下的各种语言交际任务。

最近一项大学英语四级网考和纸笔考试的对比研究发现,计算机熟悉和适应程度对网考成绩的确产生了具有统计意义和实际意义的显著影响,对考试评价和答题过程也有显著影响(金艳、吴江,2010)。但是,进一步的研究发现,随着考生计算机熟悉程度的提高,其对网考的评价也越好,网考写作的认知策略运用越理想,而且网考和纸笔考试的成绩相关程度越高,这说明测试模式对考试成绩的影响越来越小。通过写作文本的统计分析发现,网考作文的平均词数比纸笔作文多、句子更长、语篇难度更大、句法复杂程度也更高。据此,我们的解释是,网考体现的是语言能力与交际语境的交互,成绩反映了考生基于计算机的交际语言能力(Jin等,2011)。

4.3计算机化语言测试的公平性

对于不熟悉或不适应运用计算机进行语言交际的考生来说,CBLT是否影响了考试的公平公正性?表3左栏列举了CBLT中经常要求考生完成的计算机操作。我们认为,通过熟悉题型和计算机操作培训,考生可以掌握这些基本的操作。当然,在计算机普及程度尚不平衡的情况下,考生应有选择不同测试模式的机会。随着技术的进一步普及和推广,不同社会经济地位的考生群体的计算机能力会更趋于平衡,而且测试使用者也会更加接受计算机化的测试方式。因此,语言测试者应致力于提高计算机化测试的效度,而考生则应逐步适应新的交际语境,适应新模式下的语言测试。

测算方法论文篇10

中图分类号:TP391.41 文献标识码:A 文章编号:1007-9599 (2013) 01-0065-02

1 压缩感知概述

1.1 压缩感知理论

美国工程师奈奎斯特于1928年提出,又由信息论创始人香农于1948年将压缩感知理论加以说明并将其以定理形式进行引用。奈奎斯特理论认为,在转换模拟/数字信号时,如果采样频率2倍于信号最高频率时,那么采样后的数字信号就能够对原始信号的信息进行完整保留。在这种背景之下,近年来,美国科学家在此基础上提出了新的信息获取理论,也就是压缩感知。压缩感知理论认为,如果利用远低于奈奎斯特标准的方法实现对可压缩信号的数据采样,仍然可以将原始信号进行精确恢复。压缩感知理论一经提出,便解决了一系列发展与应用瓶颈,使其在各个领域都得到了巨大发展。

1.2 压缩感知原理

(1)基本原理。压缩传感信号x?Rn*1测量过程的公式为y=Ax?RM*1,M??N式中A表示测量矩阵,y表示所获取的信号测量矢量。而信号重建公式则表示为min||x||0,s.t.y=Ax式中||·||0表示x中非零值元素,即信号的稀疏度。信号重建公式属于组合优化问题,压缩感知理论的提出者认为,能够使用11范数的最小化对矩阵测量进行求解,其公式为min||x||1,s.t.y=Ax。

(2)组成部分。信号恢复算法,即以M个观测值对N长度的原始信号进行无失真恢复、矩阵测量,即保证当原始信号在维数降低时,维持在最小的信息损失量、信号稀疏表示这三部分组成了压缩感知的理论。

1)信号恢复算法。与奈奎斯特理论中线性感知特点不同,压缩感知理论中要复原信号,就要将非线性优化问题进行求解。目前压缩感知重建算法有三种,一是贪婪算法,它的特点是精度低且测量数据多,二是凸优化算法,其特点是精度高且测量数据少,三是统计优化算法,这种算法介于其他两种算法。2)测量矩阵。当信号x为长度N时,其在M??N个测量中进行重建,如果非零系数位置为已知,只要K?M,那么这个公式就有解。目前在采样方式上,较为常见的有JITTER采样、随机采样以及均匀采样等,而在测量波形上,则包括正交函数、随机波形以及高期随机波形等。3)信号稀疏表示。在可压缩信号的基础上,压缩感知可通过两步骤实现,即先设计不相关于变换基的测量矩阵并对其实施观测,得到测量向量后,从维度测量向量进行信号的重建。

2 基于压缩感知的图像快速重建方法设计

通过设计一种基于观测矩阵与多稀疏变换基的组合并利用正交匹配追踪计算法来重建图像,同时通过实验使用一级小波分解图像,将相似的分子量图像进行提取,而后应用于压缩感知技术实现对其的恢复操作,最终借助小波逆变换得到图像的快速重建效果。

2.1 观测矩阵、稀疏变换基与算法

在本实验中选取了不相同的稀疏变换基5种,分别是离散傅里叶、离散余弦以及三种各不相同的小波变换基。而观测矩阵则包括非常稀疏投影、局部哈达玛、非相关测量、BERNOULLI随机以及高斯随机矩阵5种。所采取的恢复算法则是贪婪算法中的正交匹配追踪算法。

从表1的数据结果显示,基于观测次数相同的条件下,本文提出的方法与直接将压缩感知重建技术应用于整幅图像相比,显著提升了其运行的时间与效率,另外对于重建图像的也有了相当明显的改善效果。

3 结语

将压缩感知理论应用于重建二维图像上,已获得较好的重建图像质量,本文在此基础上,利用观测矩阵、稀疏变换基的相关算法,并引入小波变换,设计了一种经改进后的图像快速重建方法,在获得同等重建质量的图像同时,还能够将程序运行时间明显缩短,使得图像快速重建的效率得到大幅度提升,因此具备一定的推广应用前景。

参考文献:

测算方法论文篇11

Accuracy analysis on high-precision baseline resolution algorithm of GPS / COMPASS combination

LIU Yang1, WANG Yanguo2

(1. Jilin Normal University, School of Science and Technology of Computer, Siping 136000, China;

2. CCCC Fourth Harbor Engineering Institute Co., Ltd, Guangzhou 510000, China)

Abstract: This paper first analyzes the nature of the the Beidou carrier phase observation data,solve the program of Beidou-data cycle slip detecting and repairing,using classic ionospheric residuals method and M-W combination algorithm.A set of high-precision baseline resolution algorithm suitable for this model is developed through using LAMBDA algorithm to accurately fix ambiguity. Further , the accuracy of single and double datas can be analysed.

Keywords: Global Positioning System, baseline solution, accuracy

1 引言

随着卫星定位技术的日益普及,GPS、GLONASS、GALILEO系统和我国的第二代北斗卫星导航系统(Compass)是目前全球四大导航定位系统。由于各卫星系统使用权限及观测条件的限制,定位精度、安全性、 可靠性及可用性难以得到保证[1],而多星座组合定位可以解决这一问题,组合定位可以增加观测卫星数目,降低精度稀释因子,并且有更好的几何分布,为高精度定位提供可能。本文的研究成果―GPS/北斗组合的高精度基线解算技术将能广泛应用于测量工作的各个领域。

2 数据预处理

卫星数据的预处理的目的是:对数据进行平滑滤波的检验、剔除粗差;统一数据文件的格式,并将数据文件加工成标准文件;周跳的探测与修复;对各观测值进行模型改正。在软件的具体实现中,为快速获得卫星信息和载波相位观测值等相关信息,在数据预处理后生成共视卫星文件(.coms),该格式文件由基线两端观测站观测文件及星历文件生成,不仅包含了观测站的观测信息,还融合了参与解算的卫星高度角、空间信息等解算基线所需信息,能够提高软件的解算效率。

共视卫星文件由文件头和各历元卫星的有关数据组成。在文件头中,解释了两测站的一些必要的基本信息,如基线长度、起止历元、卫星截止高度角、方位角、电离层延迟、参考卫星编号、共视卫星的编号、卫星的坐标、载波相位观测值等组成[2]。

3 周跳的探测与修复

1、电离层残差法

从图1中明显看出红色线所示卫星产生周跳,运用电离层残差法将该卫星踢除后,周跳修复后:

经数据测试可以得出,运用电离层残差法能有效探测出周跳并可对卫星进行适当提出[3]。但由于电离层残差法具有以下缺点:1.不能判别出周跳出现在哪个频率上;2.只用到观测数据而无卫星、测站坐标等信息;3.仅适用于双频数据,而对单频机不适用。基于以上方法的不足,本论文提出再进行M-W组合观测值计算宽巷模糊度。

分析:

a、采样间隔大小对于电离层残差法探测影响较大,若观测数据的采样间隔是1s,周跳误差比较敏感;若数据的采样间隔较大,那么相近历元的电离层变化很大,这种情况下探测结果很可能出现错误;若周跳组合能够形成一定的组合关系,此方案将会失效。因此用此种方法探测周跳,较为有效,联合M-W方法再进行修复周跳,两种方法结合效果更好。

b、M-W的核心是利用宽巷模糊度探测周跳与修复周跳,在进行模型分析处理时要用到伪距的观测值,因此这会影响到周跳偏差的估值,如果周跳发生在两频段上,且大小相同,这种方法便无意义。

c、联合利用M-W组合及电力层残差法进行处理周跳,弥补了各自方法的不足,可以得到高精度结果,为下一步高精度基线解算提供保障。

4 数据处理及精度评定

基线解算时由GPS_COMPASS软件对处理GPS/COMPASS数据进行解算,探测并修复周跳,求算参数的浮点解、固定解(基线向量坐标分量、基线向量长度、整周模糊度)及其方差协方差、中误差,用来评定基线解算质量优劣。

论文中算例由双频接收机测得,尽量减小接收机钟差、电离层延迟、对流层延迟的影响,首先探讨单基线数据。此次测试观测条件良好,采样间隔1s,选取1h的数据进行解算比对。本论文采用如下指标进行精度评定:

1、基线分量及精度

2、单历元载波双差定位基线分量改正分析,对窄巷组合方案进行分析,见下图

由以上各图归纳如下表:

表4 精度评定

从以上各图及统计表分析及目前COMPASS卫星的发射状况来看,对于短基线的载波双差定位解算数据,观测条件良好的情况下,无论采用何等组合方案, GPS/COMPASS组合基线解算的精度与单系统基线解算相比,解算精度有了小幅提高,但基本都维持在毫米级精度水平,精度差距并不明显。

3、RATIO

数据处理完毕后,查看静态基线,我们要检查RATIO是否大于3,若比3大,证明基线的固定双差解解算合格,若小于3,说明此基线解算的固定双差解不够合格

双系统RATIO值见下表

表5 RATIO值对照表

由表中RITIO值我们可以得出,GPS/COMPASS组合后基线解算的RATIO值,用L1、窄波组合时,明显优于单GPS系统,单COMPASS系统基线解算质量最差。

4、系统稳定性分析

选用了一段18km的基线,选用测站名为LIXI,JLHU,采样率5s,同步接收数据5小时,数据下载后经过卫星状况分析,分成5个观测时段进行分析,每个时段时间约为1小时,在整个观测过程中前4个间段双系统卫星质量较好,单系统数据可以单独进行基线解算,求出固定解。第5时段GPS卫星数量不足3课,无法固定卫星,这时将COMPASS数据引入进行双星组合解算基线,便可以对基线进行解算处理。

在第3时段,GPS卫星质量较差,但可以求出固定解,但接收机接收各系统卫星的数目都大于4课,以第3时段基线解算为例,探讨18km基线解算精度。

分析:在第3时段,对于18km基线进行解算,由于观测条件及电离层改正等因素的限制,GPS卫星的观测质量不佳,由上述表看出,单GPS卫星系统的基线分量的误差最大,但是经过GPS/COMPASS卫星组合解算基线[8],精度有了显著提高,基线分量的误差在4cm以下,维持在厘米级水平。在第5时段,GPS卫星质量更差,观测的卫星数据不足4颗,不能求出固定解,COMPASS卫星质量稍好。

测试数据分析:在本数据测试中,GPS卫星仅为三颗:‘G04',‘G10',‘G17',而COMPASS卫星则有多颗:‘C01',‘C03',‘C04',‘C06',‘C08',‘C09'。此时段GPS卫星数目不足,无法进行基线的固定解算,而加入COMPASS卫星后共同参与解算,便能能准确固定,定位误差大幅度减小,精度明显优于单COMPASS卫星数据解算结果,说明在GPS卫星较少时,COMPASS卫星可以起到补充作用,能大幅提升卫星定位精度,使基线解算更为稳定。■

参考文献

[1]党亚民,秘金钟,成英燕.全球导航卫星系统原理与应用[M].北京:测绘出版社,2007

[2]刘基余等.GPS卫星导航定位原理与方法 [M].北京: 科学出版社,2008

[3]中国卫星导航系统管理办公室.北斗卫星系统发展报告(2.1版)[S]. 2012

[4]刘智敏.改进的遗传算法在GPS基线解算上的研究[J],测绘科学,2008(9)

[5]杨润书.GPS基线解算的优化技术[J].测绘通报,2005(5):36-39

测算方法论文篇12

中图分类号: TU47 文献标识码: A

在高速公路的路堤建设过程中,为了控制施工进度,指导后期施工组织及安排并保证路堤的稳定和实用,需要对路基的不同时刻沉降和最终沉降量进行预测,尤其针对以软土为地基的路基施工,路基实际土层的性质很复杂。软土地基在其顶部荷载及重力作用下产生压缩变形,从而引起基础沉降。沉降量是指地基土经压缩变形达到固结稳定状态时的最大沉降量,称为最终沉降量。软土作为一种特殊工程材料,土体本身性质变异性较大,特性复杂,而且取样时容易受许多不确定因素的影响,所以无论是传统方法还是数值方法,其本构模型存在的缺点已有共识,如参数的取得、影响因素和破坏准则等,至今仍然没有一种计算方法是能够令人信服的。但是通过现代的预测理论进行分析,根据实测资料或者模拟实验数据推算沉降量以时间关系的预测方法已经在工程中被广泛应用。目前,此类方法归纳起来,主要有如下几种:

1、经验公式法

土体的压缩变形随时间的变化过程不仅能在室内模型试验时观测到,而且在实际工程中也可以通过观测沉降量随时间的变化而得到。采用科学的预测方法处理沉降实测资料和试验数据,有助于准确和预测沉降,从而使后期施工组织安排到达最优化。目前常用的经验公式法主要有:指数曲线法、双曲线法、对数曲线法、抛物线拟合法、三点法、星野法、沉降速率法等等。

(1)指数曲线法模型

指数曲线法是假定沉降的平均速率以指数曲线的形式减少的经验推导法。此法认为曲线

——约呈折线型的三段直线,其经验公式为:

(1-2)

在——直线上选取两点(,)和(,),使其满足,代入式(1-2)即得,由此可求得最终沉降量为:

(1-3)

式中,——对应沉降曲线拐点处的沉降值;

——对应沉降曲线拐点处的沉降速率。

(2)双曲线模型

该法认为沉降-时间关系符合双曲线式(1-2),若沉降过程观测历时较长,在沉降趋于稳定的后段取点计算,能够得到较为满意的结果[8],但在曲线前段应用时便会出现较大的误差,正是因为这点,冯文凯等又提出了修正的双曲线法。

(1-4)

式中,——参数;

其他变量含义同(1-1)。

另外,双曲线式通过坐标零点,对一级加载情形,可把沉降时间关系起点定在处,即施工期的一半处。

2、Asaoka法

该法是由日本学者Asaoka在1978年提出的,又称图解法。是依据某级荷载作用下现场实测的个沉降值,然后再以为坐标系绘出个数据点,其中。可以看出所有的数据点基本都在同一条直线上,设该直线的斜率为,与轴的交点纵坐标为,其延长线与线的交点即为本级荷载下最终沉降量(图1):

(1-5)

式中,——与所选取的时间间隔有关的两个系数。

图中的直线关系只有当土体行为完全符合太沙基一维固结理论假设才能存在。

该法可以作为路堤最终沉降量的一种简便的预测方法,其最突出的优点在于可利用短期的观测资料得到较为可靠的最终沉降推算值。其次,还能够对是否已进入次固结阶段进行分析判断,并进行次固结沉降推算。但此法也存在一些不足之处:如最终沉降值在一定程度上依赖时间间隔,对主次固结的划分存在一定的人为误差。

图1 Asaoka法预测最终沉降示意图

Fig.1 The schematic of Asaoka method to predict the final settlement

3、灰色理论法

由于引起地基沉降的因素太多,用理论方法计算最终沉降量还有一定的困难,而上述方法都有一定的使用性和地区性。工程实践已经证明:双曲线法拟合出来的沉降量结果偏大,而指数法拟合出来的结果偏小等。近年来,岩土工程领域的科研人员也在采用灰色模型解决一些沉降问题。灰色系统理论的基本思路是:首先对数据进行累加处理,使数据序列的随机因素影响淡化,从而提高数据序列的内在规律,再将数据序列建成一个具有微分、差分、近似指数规律兼容的灰色模型。利用灰色模型(GM)预测对数据没有严格要求,而且灰色预测是一个动态的预测,可以根据新增加的数据相应的变动模型,而计算程序不用改变,这点正好适用于软土路基的信息化施工。

灰色理论预测是以已知单位时段内的沉降量为研究对象,通过对这些数据的处理来获得地基沉降的变形规律,从而对工后沉降进行预测。石世云等研究了多变量灰色模型MGM(1,n)在变形预测中的应用,将单点的MGM(1,1)模型扩充为多点的MGM(1,n)模型,通过沉降实例分析证明,MGM(1,n)模型精度高于分别单独使用单点的MGM(1,1)模型;曾超等把灰色模型的路堤沉降预测结果和双曲线法的预测值分别与实测值进行了对比,证明了灰色模型沉降量预测值和实际沉降量更接近。

4、人工神经网络法

人工神经网络(ANN)作为一门新兴的信息处理系统,已经在信息科学和工程技术领域得到了广泛的应用。它是模拟生物脑神经系统的一种计算机处理模式,由一系列简单的高度互联的处理单元组成。其优点在于具有较强的非线性映射能力和学习能力,在解决复杂问题时,对于外加的输入,是以并行的、非确定的方式进行处理的。它在复杂非线性系统中具有较高的建模能力和对所提供数据的良好拟合能力。

在地基沉降计算方法中,分层总和法虽然计算方便但其计算精度不高;数值计算法理论上虽然严谨,但是模型参数的取值是影响计算结果精度的关键,且对技术人员的素质有很高的要求,推广起来比较困难;经验公式法主要是基于地方经验,且存在着取点位置等带来的一些误差。而人工神经网络法在处理非线性问题上具有独特的优越性,能够充分运用人工神经网络较强的非线性映射能力,基于路堤沉降的实测或者试验资料,对高度复杂的非线性的土工结构直接建模来预测路堤的沉降量,这样能够更好的反映软基路堤的沉降规律。

参考文献:

[1] 王志亮. 软土路堤沉降预测和计算[D]. 河海大学博士学位论文, 2004.

[2]张诚厚, 袁文明, 戴济群. 高速公路路基处理[M]. 北京: 中国建筑工业出版社, 1997.

友情链接