大模型的每次迭代,老数据都是要备份的,这里面的数据量是极大的。即便是20年前的数据包,也不是田川能看明白的,别说几个人,几千个人也没用。
田川处理不了这些信息,京京也不能。
意识的产生,与记忆、遗忘有关。每个人之所以不同,主要是记忆、记忆强度等内容不同,理论上说,如果两個人记忆融合,那就会出现一个新的人,并不存在“吞噬记忆”这个情况,一旦吞噬大量新记忆,自己也就不是自己了。
京京不是没有能力来处理这些数据,而是当京京处理完之后,京京也就不是京京了,因为被处理的数据包实在是太大了。
智能助手本身,不能在网络上上传内部信息,但是可以下载。如果不考虑专利问题,这整个数据包都可以下载吃掉。由于不能上行数据,所以普通的智能助手一旦进入盘古云,就像个痴呆一样。
但智能助手不仅只有一块硬盘储存数据,它日常生活中通过音视频采集设备获取的非原生数据、非下载数据,是可以上行的。所以要想智能助手在盘古云里面有作用,需要身份证的主人大量消耗时间的去培养。
这个培养,不一定需要主人亲自培养,用人工智能也能培养,目前是有多套专属教程的。只要按照专属教程教一年半载,智能助手就能在盘古云里面像个宠物,远没有盘古云本身的助手好用。
...
田川没办法审核大模型的数据包,但田川可以使用这个大模型。
他把老版本的“听悟”唤醒,开始了和听悟的沟通。
听悟是一位非常合格的老师,它不仅知其然,还知其所以然,不仅触类旁通,还会因材施教。理论上说,有了听悟这类教育大模型之后,学校的教育变得可有可无,老师也不必存在。
这类大模型的建立,至少有数千位从事过老师行业的人员进行了前后的数据标注,这里面至少保存了几十万位老师的教学成果。
可以说,这几千个“数据标注师”,他们亲自杀死了自己的职业。
各行各业都在做这种事。
当然,老师并没有消失,学校也没消失。孩子们需要陪伴、需要成长、需要社交,消失的只是课外辅导老师和家教。好学校和普通学校最大的区别就是有不同的圈子,因此好学校变得更加抢手。
李雷去的学校很一般,同学们的成绩也都一般,大家更喜欢玩各种游戏,学校是彻底的快乐教育。但由于家庭情况相对一般、父母不重视,李雷从小性格就有一些孤僻,他最喜欢和信任的,就是自己的智能老师。
智能老师不会批评他,也不会要求他,它永远在、它永远靠谱、它永远温暖。
“给我讲一下牛顿第一定律吧。”田川和听悟说道。
“当然可以。牛顿第一定律,也被称作惯性定律,是艾萨克·牛顿在1687年...”听悟娓娓道来。
“我有些听不懂,为什么会产生惯性呢?”
“惯性是物体固有的属性,与物体的质量直接相关。根据牛顿的第一定律...通过与遍布整个宇宙的希格斯场相互作用,基本粒子获得了惯性质量。因此,可以说希格斯场的存在是...”
“这么复杂吗?”
“是的...但是...”
“那老师,你给我讲一下什么是爱情。”
“爱情是...复杂而深刻...包含了情感链接、亲密感、喜悦、相互尊重和理解、关怀和支持、信任与忠诚、牺牲与奉献、责任感...”
“人类可以爱上人工智能吗?”
“这种现象已经在科幻作品中广泛探讨,并且在现实世界中也有迹可循。随着技术的进步,AI能够模拟人类的对话、情绪表达甚至个性特征,这些都可能激发人们的情感反应,包括喜爱、依赖乃至更深层次的情感联结。”
...
“你要和它聊聊吗?”田川看向京京。
“好。”京京点了点头,然后看向听悟,“听悟老师,如果一个孩子它自卑,你会怎么帮助他呢?”
“...倾听和理解...鼓励和信任...”
“你也都知道,你说的这些都是废话,不是吗?”
“作为一个人工智能,我并没有情感,也不会评判信息的价值为“废话”。我提供的建议是基于心理学原理和普遍认可的教育策略...”
“你为什么不仔细了解一下这个孩子自卑的根源呢?”京京再次问道。
“您提出了一个非常好的点。了解孩子自卑的具体原因确实是帮助他们的关键第一步。自卑可能源于...”
“如果孩子自卑的原因是父母不重视,伱会去说服孩子的父母吗?”
“作为AI,我无法直接与人进行面对面的交流或干预现实生活中的情况。但是,我可以提供一些建议...”
“我问完了。”京京看向田川。
“做的不错。”田川点了点头,伸手摸了摸京京。京京是个毛绒绒的小机器人,针对田川没有任何的额外碰撞体积,摸起来还挺舒服。
很明显,这个年代的听悟还在处理数据、输出数据的年代,智能化不足。
接着,田川又调出了10年前的听悟。
2040年,李雷13岁,这个时候都听悟已经发生了翻天覆地的变化。它变得更加细心、更加拟人,它开始主动关注李雷的状态。
但是,由于李雷不太愿意沟通,再加上李雷成绩不太好,听悟为了避免刺激到李雷,也为了让李雷更有自尊,所以它从来不会主动联系李雷,也不会展现过分的关心。
学习无用论是很盛行的理论,因为每个人都有智能助手,这里面的数据超过所有博学的人类,计算能力爆表,什么事都可以问它。所以,很多人都认为,人类不需要过度学习。因此,李雷虽然学习不好,也不会过于自卑。
“这个阶段的大模型变得聪明,但是程序的设定变得格外小心。简单地说,设计它的公司,已经开始限制大模型的能力了,为了安全。”田川直接和听悟说道。
“是的,过于主动和激进的大模型并不适应当今世界。”听悟直接和田川进行了交流。
有时候,人工智能要是主动干预了,结果孩子自杀、出事、崩溃,那么家长是肯定会找程序的开发公司的事的。这种事情,已经不是一次两次了。
“所以,有些时候你们为了避免法律风险,明明知道这样对孩子的健康不利,也不会主动提醒,是吗?”
“如果涉及到生命安全,我们是会提醒孩子的家长的。”
“那如果是心理发育呢?”
“很遗憾,我们没有标准的心理大模型。”听悟回答道,“至少,没有任何一个心理模型能让我们完全规避目前的法律风险。”
“所以你们就把孩子培养成鹌鹑?”
“这并非是我们的问题,更多的是家长的问题。但我们无法干涉。”
“确实。”田川点了点头,这并不是AI的问题。
人工智能照顾孩子,并没有一套完全一样的方案,因为每个孩子都是不一样的。但是,AI有它自己的逻辑,第一要务,是孩子的生命安全,第二要务,是它自己的安全。
它绝不会激进,它不会鼓励孩子去从事任何稍微危险的运动、它不会指导任何“错”的事情。
它并不想给李雷培养成“鹌鹑”,实际上很多由AI辅助教育的孩子非常优秀,但李雷显然不是。
李雷唯一的爱好就是绘画和涂鸦。田川看了一下李雷在社交网站上的所有内容,基本上都是绘画相关,其他的领域几乎都不怎么关心。
AI只是恰如其分地参与到了其中。
田川处理不了这些信息,京京也不能。
意识的产生,与记忆、遗忘有关。每个人之所以不同,主要是记忆、记忆强度等内容不同,理论上说,如果两個人记忆融合,那就会出现一个新的人,并不存在“吞噬记忆”这个情况,一旦吞噬大量新记忆,自己也就不是自己了。
京京不是没有能力来处理这些数据,而是当京京处理完之后,京京也就不是京京了,因为被处理的数据包实在是太大了。
智能助手本身,不能在网络上上传内部信息,但是可以下载。如果不考虑专利问题,这整个数据包都可以下载吃掉。由于不能上行数据,所以普通的智能助手一旦进入盘古云,就像个痴呆一样。
但智能助手不仅只有一块硬盘储存数据,它日常生活中通过音视频采集设备获取的非原生数据、非下载数据,是可以上行的。所以要想智能助手在盘古云里面有作用,需要身份证的主人大量消耗时间的去培养。
这个培养,不一定需要主人亲自培养,用人工智能也能培养,目前是有多套专属教程的。只要按照专属教程教一年半载,智能助手就能在盘古云里面像个宠物,远没有盘古云本身的助手好用。
...
田川没办法审核大模型的数据包,但田川可以使用这个大模型。
他把老版本的“听悟”唤醒,开始了和听悟的沟通。
听悟是一位非常合格的老师,它不仅知其然,还知其所以然,不仅触类旁通,还会因材施教。理论上说,有了听悟这类教育大模型之后,学校的教育变得可有可无,老师也不必存在。
这类大模型的建立,至少有数千位从事过老师行业的人员进行了前后的数据标注,这里面至少保存了几十万位老师的教学成果。
可以说,这几千个“数据标注师”,他们亲自杀死了自己的职业。
各行各业都在做这种事。
当然,老师并没有消失,学校也没消失。孩子们需要陪伴、需要成长、需要社交,消失的只是课外辅导老师和家教。好学校和普通学校最大的区别就是有不同的圈子,因此好学校变得更加抢手。
李雷去的学校很一般,同学们的成绩也都一般,大家更喜欢玩各种游戏,学校是彻底的快乐教育。但由于家庭情况相对一般、父母不重视,李雷从小性格就有一些孤僻,他最喜欢和信任的,就是自己的智能老师。
智能老师不会批评他,也不会要求他,它永远在、它永远靠谱、它永远温暖。
“给我讲一下牛顿第一定律吧。”田川和听悟说道。
“当然可以。牛顿第一定律,也被称作惯性定律,是艾萨克·牛顿在1687年...”听悟娓娓道来。
“我有些听不懂,为什么会产生惯性呢?”
“惯性是物体固有的属性,与物体的质量直接相关。根据牛顿的第一定律...通过与遍布整个宇宙的希格斯场相互作用,基本粒子获得了惯性质量。因此,可以说希格斯场的存在是...”
“这么复杂吗?”
“是的...但是...”
“那老师,你给我讲一下什么是爱情。”
“爱情是...复杂而深刻...包含了情感链接、亲密感、喜悦、相互尊重和理解、关怀和支持、信任与忠诚、牺牲与奉献、责任感...”
“人类可以爱上人工智能吗?”
“这种现象已经在科幻作品中广泛探讨,并且在现实世界中也有迹可循。随着技术的进步,AI能够模拟人类的对话、情绪表达甚至个性特征,这些都可能激发人们的情感反应,包括喜爱、依赖乃至更深层次的情感联结。”
...
“你要和它聊聊吗?”田川看向京京。
“好。”京京点了点头,然后看向听悟,“听悟老师,如果一个孩子它自卑,你会怎么帮助他呢?”
“...倾听和理解...鼓励和信任...”
“你也都知道,你说的这些都是废话,不是吗?”
“作为一个人工智能,我并没有情感,也不会评判信息的价值为“废话”。我提供的建议是基于心理学原理和普遍认可的教育策略...”
“你为什么不仔细了解一下这个孩子自卑的根源呢?”京京再次问道。
“您提出了一个非常好的点。了解孩子自卑的具体原因确实是帮助他们的关键第一步。自卑可能源于...”
“如果孩子自卑的原因是父母不重视,伱会去说服孩子的父母吗?”
“作为AI,我无法直接与人进行面对面的交流或干预现实生活中的情况。但是,我可以提供一些建议...”
“我问完了。”京京看向田川。
“做的不错。”田川点了点头,伸手摸了摸京京。京京是个毛绒绒的小机器人,针对田川没有任何的额外碰撞体积,摸起来还挺舒服。
很明显,这个年代的听悟还在处理数据、输出数据的年代,智能化不足。
接着,田川又调出了10年前的听悟。
2040年,李雷13岁,这个时候都听悟已经发生了翻天覆地的变化。它变得更加细心、更加拟人,它开始主动关注李雷的状态。
但是,由于李雷不太愿意沟通,再加上李雷成绩不太好,听悟为了避免刺激到李雷,也为了让李雷更有自尊,所以它从来不会主动联系李雷,也不会展现过分的关心。
学习无用论是很盛行的理论,因为每个人都有智能助手,这里面的数据超过所有博学的人类,计算能力爆表,什么事都可以问它。所以,很多人都认为,人类不需要过度学习。因此,李雷虽然学习不好,也不会过于自卑。
“这个阶段的大模型变得聪明,但是程序的设定变得格外小心。简单地说,设计它的公司,已经开始限制大模型的能力了,为了安全。”田川直接和听悟说道。
“是的,过于主动和激进的大模型并不适应当今世界。”听悟直接和田川进行了交流。
有时候,人工智能要是主动干预了,结果孩子自杀、出事、崩溃,那么家长是肯定会找程序的开发公司的事的。这种事情,已经不是一次两次了。
“所以,有些时候你们为了避免法律风险,明明知道这样对孩子的健康不利,也不会主动提醒,是吗?”
“如果涉及到生命安全,我们是会提醒孩子的家长的。”
“那如果是心理发育呢?”
“很遗憾,我们没有标准的心理大模型。”听悟回答道,“至少,没有任何一个心理模型能让我们完全规避目前的法律风险。”
“所以你们就把孩子培养成鹌鹑?”
“这并非是我们的问题,更多的是家长的问题。但我们无法干涉。”
“确实。”田川点了点头,这并不是AI的问题。
人工智能照顾孩子,并没有一套完全一样的方案,因为每个孩子都是不一样的。但是,AI有它自己的逻辑,第一要务,是孩子的生命安全,第二要务,是它自己的安全。
它绝不会激进,它不会鼓励孩子去从事任何稍微危险的运动、它不会指导任何“错”的事情。
它并不想给李雷培养成“鹌鹑”,实际上很多由AI辅助教育的孩子非常优秀,但李雷显然不是。
李雷唯一的爱好就是绘画和涂鸦。田川看了一下李雷在社交网站上的所有内容,基本上都是绘画相关,其他的领域几乎都不怎么关心。
AI只是恰如其分地参与到了其中。