[《全球时报》记者陈Zishuai全球时报特别通讯员李金·吉(Li Jing)注:最近,当参加2025年上海的2025年世界人工智能会议时,杰弗里·辛顿(Jeffrey Hinton),诺贝尔(Nobel)的诺贝尔奖获得者,诺贝尔奖获得者,受欢迎的学者,被称为“人工智能教授(AI)”,“交付智能),如果是一位智能,如果是一位智能,如果是一位智能,否定了一位智能,否则(如果是一定的智能),则是一位智能,是一定的,是一定的,如果是一位智能,否则(如果是一定的智能),则是一位智能,讨论了发表演讲的生物智能(AI)是否将代替数字智能,讨论了数字智能是否会被生物智能所代替。加利福尼亚大学计算机科学系的教授斯图尔特·罗素(Stewart Russell)伯克利大学(University of Berkeley)的教授,他也想参加了数字智能的数字智能?近年来是共生的AI的快速发展,许多学者和媒体都讨论了它。 “来自Evolution”与“人类设计的产物”于1947年出生在英国。 Hinton目前是加拿大多伦多大学的计算机科学荣誉教授。 2018年,他因对深入研究的贡献而获得了另外两名学者的图灵奖。六年后,他因“通过人工神经网络实现了机器研究的关键发现和发明”而获得了诺贝尔物理奖。去年2月,如果数字智能取代了生物智能,欣顿向英国牛津大学发表了演讲。他建议,如果数字上电脑想占据控制,“我们可能无法阻止它。”根据美国中等新闻网络在美国发表的一篇文章,生物智能源自生物学大脑中复杂的神经元和突触网络,涵盖了广泛的慷慨功能,包括研究,记忆,问题,问题,问题,问题,问题,问题,问题,问题,问题,问题,问题,问题,问题,问题,问题,问题。olving和情感理解。这种智能的特征是它的灵活性,使生物体可以复杂的方式混合和适应环境。人脑大约有860亿个神经元,这是生物智能中最受欢迎的神经元,具有抽象的推理,创造力和自我意识。数字智能,尤其是AI是人类设计的产物,是由算法,数据和计算模型创建的。它的目的是模仿,即使认知功能超过了人们,从执行简单任务到解决复杂决策 - 制定参与问题的应用程序。深圳人工智能与机器人学院体现情报中心主任刘·沙山(Liu Shaoshan)告诉《全球时报》记者,生物情报来自进化,也是数十亿生物优化年份的结果。特别是,人类和动物的大脑的演变使它们能够快速适应以最小的复杂情况Al样品并在不确定的环境中做出判断。但是,它的计算速度较慢,内存有限,并且很容易受到生理或情绪状态的影响。相比之下,数字智能是人工设计的计算系统所显示的智能形式。它基于算法驱动和迫使数据,并通过并行处理实现高速记忆和推理。数字智能的优势是非常快速的计算,几乎无限测量的记忆,易于复制和部署,并且没有疲劳,但缺乏意识和独立的主观情绪,目前缺乏自我保护机制。欣顿在2025年世界人工情报会议上的讲话中引用了数字智能与生物智能之间的相似性。他说,人们和大型语言模型几乎以相同的方式理解语言,在“也许是大型语言模型”的人们中,人们也会创造像大型语言模型一样“幻觉”,并创建许多“幻觉”语言。 2023年,华盛顿(Washinton)在MIT网站上发表的一篇文章说,AI功率也反映在处理大量数据并发现人们从数据中看到的趋势的能力。就像是一名医生,比只有1,000名患者的医生见过超过1亿患者。 Hinton说,大型语言模型(例如GPT-4)使用类似于人脑神经元连接结构的网络,并开始具有共同的滥用能力。此外,这些模型不断学习,知识共享非常方便。欣顿说:“只要一个模型学到一些东西,另一个人就会知道。” “人们做不到。如果我对音量机制学到了很多东西,并且您想掌握它,那将需要一个漫长而艰难的过程。”欣顿长期以来一直认为,已在“末日主义者”与“有效的加速器”网站上发表的一篇文章该计算机模型没有人类智能,但现在他认为AI是相对紧急的“现有威胁”。在2025年世界人工智能会议上,欣顿将AI的发展与“饲养老虎”进行了比较。 “如果老虎是一只宠物,那就很好,但是如果它抬高了,但是如果它抬高,您需要确保不要被吃掉。”他强调,AI并没有像老虎一样失踪,因为这项技术已经渗透到了世界各地的所有生活方式。欣顿(Hinton)在2023年说,最糟糕的情况是,人们可能只有在智力演变中才是一个过渡阶段:生物智能会发展数字智能,这可以吸收以前所有人的创造,并直接乞求世界。他补充说:“它们可能会让我们存在一段时间以保持电站运行,但是也许我们不允许我们存在。” “我们已经找到了创造不朽生活的方法。这些数字知识分子在硬件被打破时不会死亡。只要长时间由于可以找到另一个硬件可以运行相同的说明,因此它们可以“复活”。因此,我们没有永生,但不在我们中间。渴望控制“ AI的教父”,这也使AI知道一些坏事,例如通过阅读小说,即使他们无法直接做,它也可以使我们愿意采取“ YERSIS”和“ YERSIER”的态度。 在关于AI发展的技术世界,其中之一被称为“ Doomsdayist”或“还原主义者”。另一个派系称为“防御者”。它被称为“技术乐观主义者”或“有效的加速器”。 “世界末日主义者”或“还原主义者”希望减慢AI的发展。他们最大的YETG-请记住AI的一致性,也就是说,当AI超过人类的智力并且人们无法控制AI时,我们该如何处理。 2023年,美国非营利组织未来生活学院发布了一封公开信,要求立即中止AI系统,该系统至少6个月比GPT-4强。包括行业专家在内的成千上万的人,包括马斯克在内的技术大亨签署了这封信。他们是“超速主义者”。罗素(Russell)被称为“ AI Alignment Master”,也签署了联合信。他说,没有控制的人工智能可能会在“文明的终结”水平上导致严重的后果,因此人们应该像核能一样修复AI。 “有效的”Lerator“支持整个AI开发。该运动的创始人是Furden,他在像Google这样的许多美国巨型技术上工作,他还创建了自己的技术创业公司。“有效的加速器”的代表,包括“技术权利”的美国和风险投资家安德森(Anderson),他们都在撰写了“技术优化者”的材料陈述。这是一个超过5,000个技术的陈述。说,如果AI最终超越了人们,一些研究人员认为,生成的AI只是一个昂贵的统计技巧,而现有的威胁则集中在“科幻小说”中。系统比猫更愚蠢,相信它们活跃或只是威胁人们是“荒谬的”。兼容统一并发展“共生智力”? “它正在触及人类对意识,主观性和进化的界限。”刘·沙尚(Liu Shaoshan)认为,讨论如果被数字智能替换为生物智能是技术途径的差异,但是从本质上讲,这是对智力本质和生命价值的主要判断。他介绍了欣顿的观点是基于“智力的功能概念”,也就是说,只要信息处理系统具有足够的复杂性和组织能力,意识或类似的意识系统可能会在未来的某个时候出现。与“智力的功能主义观点”相反,是“智力的本体论观点”。刘·沙尚(Liu Shaoshan)说,后者认为意识不是信息策略的产物唱歌,但这种现象与生活经历,情感和道德判断密不可分。只有堆叠和扩展数据的算法是不可能的。物种“?这是对如此称呼的“智能分离点”的道德恐惧。恐惧:当智能系统有能力拒绝人类指示的能力时,它是“工具”,还是它是一种新的智能竞争力的诞生?寻找未来的未来?根据人的“人工智能”的方式,人们如何平衡生物智能和数字智能?当机器更聪明时,变得更聪明。乌特(Ute)告诉《全球时报》记者,审查和判断AI开发方向应首先基于对“智能”本身的仔细和开放的理解。 “情报”不是共识产生的技术概念。它的本质仍然是通过哲学,脑科学和计算机科学的联合探索领域。生物智能和数字智能之间的简单对立,从而减少了“替代”或“替代”的结束,可以忽略智能形式的差异和复杂性。中央新隆表示,有必要清楚地表明,当前的公众和一些“基于硅的知识讨论”受到科幻小说的影响,在一定程度上起作用的科幻小说,以及“焦虑销售”的陷阱,将其视为强大,强大和强大的抽象生存。中东相信,在AI的发展问题上,我们必须遵守协调发展和安全的战略思想,一个ND使用创新和平衡的智慧来控制机遇和挑战。缺乏“无障碍”和“过度的危机意识”与事实脱离的愿景是需要谨慎的趋势。目前,我的国家处于开发新的发展模式和促进质量发展的关键时期。在实施“ AI+”行动中,赋予新的AI工业化和加速新生产率质量的发展是与国家长期竞争有关的主要方法。如果由于对未来尚不清楚的理论风险的过度担忧而采取了过于高级的限制步骤,那么它很可能会延迟或错过宝贵的发展窗口,这会导致懒惰建立我国的现代经济体系。因此,在AI管理模式的建设中,我们必须促进“组合和温和性”的原则,并为现代技术和工业应用保留足够的空间ICATIONS。美国学者萨拉夫(Sarav)在他的医生论文中指出,生物智能可以与AI兼容并发展“共生智能”。这位学者指出,将生物智能融入我们的系统可能是AI景观的全部变化方面的重大成功。想一想一个未来的AI工具融合的工具非常先进,这不仅加深了我们对机器研究的理解,而且还使我们对自己的生物学有了更深入的看法。通过输入生物学信号并抓住细胞和神经元的智能,我们可以创建下一个AI一代。这些系统不仅更聪明,而且与生物体的自然智力融为一体。中等新闻网络发表的文章指出,当我们探索智力和创造力的复杂领域时,很明显,生物智能和数字智能会发展。每个人在创造力方面都有独特的好处。人类创造力充满了深度,情感和直觉,而数字智能具有处理大量数据集的准确性,速度和能力。未来可能是膨胀辅助利益以培养合作生态系统。在这个系统中,人民和人工智能的创造力不仅是整合的,而且是发展的,它继续破坏变化和艺术表达之间的界限。