西门子PLC PROFIBUS数据总线连接器
西门子PLC PROFIBUS数据总线连接器
浔之漫智控技术(上海)有限公司(xzm-wqy-sqw)
是中国西门子的合作伙伴,公司主要从事工业自动化产品的集成,销售和维修,是全国的自动化设备公司。
公司坐落于中国城市上海市,我们真诚的希望在器件的销售和工程项目承接、系统开发上能和贵司开展多方面合作。
以下是我司主要代理西门子产品,欢迎您来电来函咨询,我们将为您提供优惠的价格及快捷细致的服务!
方法论,包含方法的标准应用的统一调查系统,提供了让研究员比较和对比结果的有利条件,因此,证据能够随着时间而积累,稳定可靠的证据能为知识提供有力的基础。像化学这样的学科,特别是有详细说明的关注点和标准的问题形式的子学科,有定义完备的方法论。它们也可能有标准的汇报实践,通过标准的汇报形式来强制标准的方法论。即使是高质量的证据也通常是片面的。我们常常不能直接评估一个现象,所以我们只能研究那些我们能直接研究的结果,或者只观注现象的一部分,或者从特定的角度观注它,又或者我们只观注那些我们能度量的东西,并希望它能映射到我们真正关心的东西上。度量是一种速记,是对现象的简洁表达或反映。但它通常不是现象本身;度量是一种有代表性的简化。高可信度需要证明所做选择的合理性。
更糟糕的是,证据是会有偏见的。多少软件工程师会相信那些老套的清洁剂广告中的消费者实验和“盲测”(“Duz能清洁更多碗盘……”)?广告法规要求这种消费者实验必须遵循一定的标准使条件具备可比性:同样的污垢、同样的用水量、等量的清洁剂等。但是广告商可以任意制定条件。他们可以优化一些条件,如污垢的种类和适于产品的水温。“哈!”我们会说,“偏见是与生俱来的。”而许多发表的软件工程方法和工具评估仍然遵循了同样的模式:无论是有意的还是无意的,评估的背景是有所设计的,以证明所推销的方法或工具的优点,而不是基于独立定义的有根据的标准,公平地与其他工具和方法做比较。
当证据悄悄地被玷污和妥协时,偏见就产生了。这是因为之前没有考虑到的因素导致了结果扭曲,这样的因素包括如其他影响、合并变量、不适当的度量、或者对样本的选择不具代表性。偏见会对研究的有效性产生威胁,所以当我们在评估可信度的时候会寻找可能存在的偏见。
我们不只需要理解特定证据的价值和局限性,也要了解不同形式的证据如何比较,以及他们如何能相互组合来补偿各自的局限性。既然实验和调查有局限性,而且我们对基于现实世界经验的评估感兴趣,也许仔细深入地观察一到两个实施案例会提供我们做决定所需要的信息,或者至少把我们的注意力聚焦在我们先需要回答的问题上。引人的结果,如果它是通过盯着水晶球看出来的,那也不会有可信度。以下的研究结果一定很吸引人:“600人参与的实证研究显示Java在各个方面都比C++好:编程时间缩短了11%,调试时间缩短了47%,长期设计稳定度提高了42%。只有在运行性能上,C++仍高出Java 23%。”
但如果你知道这些结果是通过问卷调查而得出的话,那可信度就大打折扣了。如果你仔细查看问题的话,可信度会继续降低:他们是如何在程序完全不同的情况下比较编程和调试时间的?哦,他们问了任务完成的时间比预期时间长的频率!那“长期设计稳定度”是什么?哦,他们问了方法中有多少部分是从来不变的!问题都出在细节上:方法、样本、数据、分析。
粗略的凭经验来说,你可以完全忽略那些没有描述设置的研究,对那些设置的描述使你产生好奇疑问的研究,你也要保持怀疑的态度:这是哪个类型的研究?研究对象着手于哪些任务?在哪种工作环境下?研究对象是谁?数据是如何收集的?数据是如何验证的?主要的度量定义到何种精度?一份的实证研究报告能令人满意地回答所有这些问题。有意义并能让人理解的数据呈现
当你知道研究是如何构造的、数据是如何收集的时候,你需要进一步了解关于数据本身的信息。研究报告可能没有空间来发布原始数据,所以,即使是很小的研究也会通过统计学家所说的描述统计学来总结数据。级别、p值、自由度、剩余平方和、M参数、Σ、θ、β系数、ρ、τ等所有一切。这只是为了告诉你:“如果你敢质疑我的观点,我就会用我的显著性测试来砸你的脑袋。”可信的研究使用统计数据来解释和确保结果,差的研究使用它们来混淆视听(因为作者需要隐藏弱点)或恫吓他人(因为作者自己不能确定这些统计戏法的意义)。
在好的研究中,作者会用简单的语言解释他们所使用的每个统计推论。他们更喜欢使用易于理解的推论(如置信区间)而不是难以解释的推论(如p值和效能,用标准差归一的效应量)。他们会清晰地用如下语句解读每个结果:“这里也许有一些真正的差异”(正面结果),“这里似乎没有影响,或者只有很少的影响;我们看到的大部分是随机噪声”(负面结果),或者“还不清楚其意义”(空结果)。即使是后的那种结果,也很令人安心,因为它告诉你在看到数据时对其意义的不确定是有原因的,即使是统计推论也不能排除这个不确定性(至少不能通过这个来排除;也许有不同的分析可以带来指路明灯)。诚实地讨论局限性
任何实证研究的坚实汇报都需要有一个独立章节来讨论研究的局限性,通常以“对有效性的威胁”为标题。这个讨论提供关于以下问题的信息:“什么是通过这个研究所不能达到的”,“什么样的解读会有问题(构建效度)”,“研究中的什么东西可能或者已经出错了(内部效度)”,“要推广研究结果的限制是什么(外部效度)”。对一份好的研究报告来说,你通常已经意识到了这些问题,那这个章节就不会提供许多令人惊讶的信息。可信研究的作者能接受批判点的存在。如果一份研究试图消除所有批评的可能性,通常不是一个好的兆头。目前为止,你大概会同意达到高可信度绝非易事。然而,这并不意味着没有(或几乎没有)可靠的研究;只是可靠的研究总是很少。它们比我们想象中的得多,而且充满了我们不喜欢的“如果”、“当”和众多假设。在这样的情况下抱怨是没有意义的;这只是我们所生存和创造(就技术而言)的复杂世界所造成的不可规避的结果。如果我们足够耐心,并且能对我们已经发现的东西感到高兴的话,那这就不是一个问题。
我们认为,真正的问题在于:虽然工程师和科学家们很理解复杂性,也很重视复杂性及其带来的工作量,而且还能对它表示敬畏,但是我们整体的社会和文化并不是这样。我们被许多壮观的事物和景象所包围,所以不再把小新闻当做新闻。我们很难去留意那些由50个单词组成的未经扭曲的、错综复杂的研究结论。
大众媒体会因此有所行动。为了吸引眼球,他们忽视、夸张或扭曲实证研究的结论,这些结论通常被弄得面目全非。科学家们通常也帮不了什么忙,只能写写所谓的摘要,仅仅是宣布结果而不是总结概括它们。在任何情况下,担子都会压在挑剔的读者肩上,需要他们更仔细地阅读。你需要从研究中挖掘出一份报告,消化它,决定它的可信度,把对你可靠和相关的东西带回家。作为软件工程师你的资质意味着你有能力这样做。软件工程的进步需要许多工程师经常实践这种能力。这本书的内容就代表着一次实践的大好机会。系统性评审已经在其他学科中被广泛应用了几十年。当研究人员需要调查针对一个特定“话题”的所有支持性或反驳性证据时,就需要启动一次系统性评审。在软件工程中,通常会涉及打听一种方法或者流程的效果。实施系统性评审的研究人员会选择与特定研究问题相关的实证研究,评估每个研究的有效性,然后确定这些研究所显示的趋势。因此,系统性评审旨在以一种公平、可复验、可审查的方式,找到、评估并集合所有关于某个话题的相关证据。一点:结果是可重复的,就是说如果另一个研究小组遵循同样的协议,他们会得到同样的结果。理论上说,系统性评审应该严格按照预先定义好的研究协议展开。然而,这并没有看起来那么容易。虽说协议是被测试过的,但是它可能没有识别出设计和汇报相关原始研究的所有变种。所以,你可能碰到协议所没有包含的情况。在这种情形下,协议需要修订。根据不同修订的性质,你可能需要评审以前的工作甚至重做许多工作,来保证其符合修订后的协议