|
驱动中国2017年11月6日消息 在昨日开幕的第五届腾讯WE大会上,有全球多位领先的业界嘉宾进行了主题演讲。在大会上探讨了当前最前沿的创新和技术,以及人们探索未来的各种可能性。不过,最重磅的嘉宾就是天文物理学家霍金以远程视频的形式亮相本届WE大会,并谈论了对人工智能的一些看法。 在视频中霍金认为,人类很有可能会造出超级人工智能,这些人工智能程序能够全面超越人类,并有可能完全取代人类成为一种新的生命物种。霍金表示,“我担心人工智能将全面取代人类。如果有人能设计出计算机病毒,那么就会有人设计出能提升并复制自己的人工智能。这就会带来一种能够超越人类的全新生命形式。”
![]() 其实,早在之前的不同场合霍金都表达出对人工智能忧虑的观点。在今年4月份的2017全球移动互联网大会GMIC上,霍金发表了《让人工智能造福人类及其赖以生存的家园》的主题演讲,表示人工智能崛起将很可能是人类文明的终结;在今年的3月份,霍金就向英国《独立报》表示,人类必须建立有效机制防范威胁,以防止人工智能对人类威胁的进一步上升。 霍金认为,人工智能的威胁可以分为短期威胁和长期威胁两类,前者包括自动驾驶、智能性武器、数据隐私等威胁。长期威胁则主要是失控带来的风险,像人工智能系统不听从人类的指挥。
霍金对人工智能的态度,于伊隆-马斯克的观点高度相似。不同的是,霍金对人工智能技术本身还持有乐观态度,认为人工智能可以带来巨大效益,可降低工业化对大自然的破坏。
|


