强人工智能在原则上是可行的吗

发布时间: 2022-07-15 19:00:08 来源: 励志妙语 栏目: 经典文章 点击: 96

人工智能为何不可行性要看是什么样的人工智能?按照科学的做法来做的人工智能是可以做到的。但是一些迷信,假借人工智能之名造假的当然是...

强人工智能在原则上是可行的吗

人工智能为何不可行性

要看是什么样的人工智能?按照科学的做法来做的人工智能是可以做到的。但是一些迷信,假借人工智能之名造假的当然是不可行的。人工智能不是无中生有,而是像一颗大树一样,需要从小树苗一点一点积累成长的,就像建三峡工程一样,是个工程而不是某个物体。不可能一夜之间,某个人灵光一闪的就造出来了。这些年人工智能领域一直在不断的成长,将来某一天超越我们今天的人类的智慧不是问题,当然了,那时候的人类会更聪明,人工智能会成为人的一部分。

人工智能真的靠谱吗

  一场Google AlphaGo与围棋世界冠军李世石的对弈吸引了全世界的目光,也让人工智能再度成为业界讨论的热点话题。人工智能自1943年诞生以来,在几十年的发展历程中经历了多次潮起潮落,人们却从未停止过对人工智能的研究与探索。当下,摩尔定律驱动计算力不断增长,云计算、大数据、移动互联网这些趋势在影响着人类社会的生活与生产方式,也成为人工智能的催化剂,促使着人工智能不断的演进。那么,在大数据时代到来的背景下,人工智能未来会朝着什么方向发展?人工智能在未来能够超越人类么?人工智能两大流派:联结主义和符号主义孰优孰劣?近日,在百分点数据与价值国际论坛上,来自北京大学数学学院教授林作铨、东南大学计算机与工程学院教授漆桂林、普惠金融首席数据科学家李文哲以及百分点集团技术副总裁刘译璟等多位人工智能领域的专家就这些话题进行了深度讨论。

  众所周知,人类的智能主要包括归纳总结和逻辑演绎,与之对应的就是人工智能中的联结主义和符号主义两大最主要的流派。前者典型方法为神经网络、统计学习、深度学习等;而后者则包括形式语言、逻辑推理、专家系统等。这两大流派在人工智能发展历史中互有起落。而随着2006年加拿大多伦多大学教授、机器学习泰斗Geoffrey Hinton在《科学》杂志发表深度学习方面的论文,深度学习在学术界以及商业界持续升温,语音识别、图像识别、自然语言处理、搜索广告等深度学习相关的应用为之大热。作为联结主义的代表,深度学习俨然成为人工智能当下最为热门的领域。

  对此,北京大学林作铨教授认为:“2006年开始迅速发展的深度学习恰恰在人工智能的基本原理方面并没有太大贡献。深度学习的本质是靠大量数据进行层级计算,第一层学习之后变成另一种表示,然后特征的抽取变成第二层,层级越多所达到的效果一定会更好;另外,深度学习每一层的计算或者所谓的学习其实本质就是应用数学问题,即解出一个信息函数,但是原则上这些非线性函数都是难计算的。因此,带来两大问题就是:首先,深度学习网络不断增加深度层级的意义;另外就是每一层级的计算的理论问题,计算数学解决不了,深度学习也解决不了。”

  东南大学计算机与工程学院教授漆桂林则认为,让机器学习具备认知和推理能力是人工智能领域下一步需要真正思考的难题,“不是所有公司都拥有Google这样的大数据能力,Google跑深度学习的效果非常好。但是换了另外一家公司却可能没那么好的效果。如何在更小数据量上面提高机器的学习能力,其实需要让它具有认知和推理能力。目前几个深度学习领域的权威专家已经在不同场合表示需要把人类的规则推理引入到神经网络,使得神经网络具有更好的解释性。”

  “人们对于深度学习的理解还没到我们想要的人工智能的程度,想要通过深度学习的模型达到人的智慧还非常难做到。”普惠金融首席数据科学家李文哲补充道。

  对于符号主义而言,认为人工智能源自数学逻辑,核心思想就是应用逻辑推理法则,在人工智能中体现就是机器定理证明。符号主义认为知识是信息的一种形式,是构成智能的基础,知识表示、知识推理、知识运用是人工智能的核心,知识通过符号表示,认知即为符号的推理过程,推理过程又可通过形式化语言来描述,并且主张通过逻辑方法来建立人工智能统一体系。林作铨教授表示:“符号主义的核心目标仍然是探寻人工智能的基本原理,属于基础研究。人工智能的原始目的之一就是通过计算机来模拟人的智能行为,探寻智能的基本原理,这个目标还远远没有达到。”

  人工智能之所有在当下受到广泛关注,除了类似Watson参加危险游戏、Google AlphaGo对战围棋世界冠军这些热门事件外,更多的是来自基于人工智能的应用开始得到广泛使用,比如银行领域的自动欺诈检测系统应用、零售商的销售定价、智能家居机器人、人脸识别系统、自动语音识别等等。那么对于公司而言,在人工智能领域方向是选择联结主义还是符号主义呢?

  对此,普惠金融首席数据科学家李文哲以金融业为例表示两种方向都非常有用,他表示:“金融领域的特点是,公司刚成立不会拥有大量数据,因此不会尝试联结主义这种做法,因为像深度学习肯定需要大量的数据才能得到一个较好的结果。在数据量较少的时候,专家的经验才是最重要的,这就属于符号主义。比如对欺诈的分析、信用风险的评估,这些都是基于专家先前的经验来做的。而当公司发展多年之后,积累了大量的数据样本,则可以尝试联结主义的算法。”在李文哲看来,采用符号主义还是联结主义最大的考虑因素就是数据量,“具体到公司业务上考虑联结主义还是符号主义就是公司的数据量和数据复杂度,符号主义很多都是靠经验,很多逻辑是人为去定义。而当数据量非常庞大、而且属性又非常复杂的时候,就很难用这种方式去定义,这时候就需要采用深度学习的方式。”

  不过,在李文哲看来,深度学习仍然处于发展的初级阶段,用户仍然在做很多尝试和实验,他表示:“深度学习从2006年开始逐渐火起来,但还是较初级的阶段,很多做深度学习的人在‘蛮干’,尝试不同的方法。当发展到一定阶段之后,就会有人研究理论层面。”

  通常,人工智能往往划分为三个层级,即弱人工智能、强人工智能以及超人工智能。像Google的AlphaGo就是弱人工智能的典型代表,在某一单个领域拥有强大的人工智能程序;另外,像机器人写稿、Siri、微软小冰等都属于这个层级;通常弱人工智能并没有自主意识,按照固定结构去计算,并获取答案。而随着大数据以及计算能力的普及,弱人工智能可以被看成已经基本实现。那么,能够主动寻找问题、构造问题的模型、并解决问题的强人工智能什么时候到来?甚至超过人类的超人工智能时代离我们又有多远?

  众多专家认为强人工智能或者超人工智能时代将会在不远的将来到来。美国未来学家、Google工程主管Ray.Kurzweil在其《奇点临近》一书中更是预言:“2045年左右,人工智能将会来到一个'奇点',跨越这个临界点,人工智能将超越人类智慧,人类历史将会彻底改变。”不过,林作铨教授并不认同这种观点,他表示:“关于人工智能威胁人类的话题这几十年以来都一直持续不断,我并不认同2045年会是人工智能超越人类的时间奇点,最近几年搞的强人工智能,也有人称之为通用人工智能,基本都不了了之,在短时间能很难看到实现的可能。”

  “人工智能已经有很多成熟的方法得到了应用,已经成为基础设施中重要的一部分。历史上,人工智能也热过好几次,这次人工智能热对于人工智能发展有推动作用,虽然可能有泡沫,但是这个过程其实对人工智能发展有帮助。”林作铨教授最后表示道。

我觉得人工智能还是很靠谱,尤其是在人脸识别和不良信息过滤这一块来说。就拿现在最火的iPhone  x来说吧,人脸识别的准确率比指纹的识别率高很多。在比如说现在的智能识别不良信息技术吧,都还是很准确的。我们公司数峰科技来说,在人脸识别和不良信息这一块都做的挺不错的。之前跟一个做游戏的公司合作,滤过他们的弹幕,准确率高达99.8%,基本上市百分之百了。目前人工智能的发展还在一个比较低层次的阶段,但是随着技术的不断创新,必定会在整个社会的发展起到非常大的作用。我也不相信什么所谓的人工智能威胁论,这个就是大家太杞人忧天了。

随着科技的飞速发展,人工智能逐渐能够预测许多事情。如今,机器算法能够在很多方面对事情的走向及发展做出预测。这些预测结果能够在各行各业对人类起到助力,这种前景广阔的算法也得到了政府和资本的注意。然而,仅凭机器算法对一些事情做出预测的做法涉及到隐私问题和公平问题,也招来了许多质疑。
1、人工智能判断犯罪可能,机器算法可对多领域进行预测
2、机器算法预测未来,提高生活质量推动社会发展
3、机器算法预测未来,提高生活质量推动社会发展
由此可见,机器算法预测技术可以从51cto学习,给人们带来了一些改变,推动了许多领域的发展。然而这一技术刚刚兴起,许多算法和系统并未经过科学的认证和事实的检验,存在诸多缺陷。因此还需要进一步完善。
当然靠谱的,来这边看看,互联网it学校

未来人工智能发展的原则是什么?

我们都知道,万事万物都随着时间的流逝而发展的,寄予厚望的人工智能更是如此。虽然人工智能技术给我们的生活带来极其深刻的变化,但人工
我们都知道,万事万物都随着时间的流逝而发展的,寄予厚望的人工智能更是如此。虽然人工智能技术给我们的生活带来极其深刻的变化,但人工智能发展的嘘声也是一直存在的,但我们还是需要发展人工智能,这就需要我们制定原则,那么未来人工智能发展的原则是什么?下面我们一起来探究。
首先,对人工智能的误解可能引发对有益于所有人的技术的反对。那将会是一个悲剧性的错误。扼杀创新或将创新转移到它处的监管方法同样也只会适得其反。引导当前数字技术的成功监管原则可以给我们带来指导。我们必须重视人工智能的隐私保护。而有很多的公司并不将隐私保护看作是内部责任,也不会拿出专门的员工来促进其业务或制造流程中的隐私保护,也不会参与必需范围之外的隐私倡议或学术研究;这些公司只是将隐私看作是一项要满足规范的行为。他们关注的重点是避免罚款或惩罚,而非主动设计技术和采纳实际技术来保护隐私。
而发达国家对于人工智能的监管环境是模糊的目标和强硬的透明度要求和有意义的执法的结合,从而在促进公司将隐私看作是他们的责任上做得更加成功。广泛的法律授权鼓励企业发展执行隐私控制的专业人员和流程、参与到外部的利益相关者中并采用他们的做法以实现技术进步。对更大的透明度的要求使民间社会团队和媒体可以变成法庭上和法庭外的公共舆论中的可靠执法者,从而使得隐私问题在公司董事会上更加突出,这又能让他们进一步投资隐私保护。所以监管者可以强化涉及内部和外部责任、透明度和专业化的良性循环,而不是定义狭窄的法规。随着人工智能与城市的整合,它将继续挑战对隐私和责任等价值的已有保护。和其它技术一样,人工智能也可以被用于好的或恶意的目的。   
所以人工智能须以一种能创建信任和理解的方式引入,同时还要尊重人权和公民权利。在鼓励创新的同时,政策和流程也应该解决得到、隐私和安全方面的影响,而且应该确保人工智能所带来的好处能得到广泛而公正的分配。这样我们就不会担心人工智能出现问题了。
我们在这篇文章中个给大家讲了未来人工智能的发展原则,当然这些原则还是不够完善的,我们还需要大量的时间和实践才能够验证这些正确与否,希望未来人工智能能够在我们的控制下朝着正确的方向发展。
本文标题: 强人工智能在原则上是可行的吗
本文地址: http://www.lzmy123.com/jingdianwenzhang/188352.html

如果认为本文对您有所帮助请赞助本站

支付宝扫一扫赞助微信扫一扫赞助

  • 支付宝扫一扫赞助
  • 微信扫一扫赞助
  • 支付宝先领红包再赞助
    声明:凡注明"本站原创"的所有文字图片等资料,版权均属励志妙语所有,欢迎转载,但务请注明出处。
    京剧为什么要画脸谱如何评价亚历山大•汉密尔顿
    Top