以上都是正面的回答,但大家对人工智能的担心和惧怕是核心问题。因为未知才是人类,恐惧的源泉。只有我足够了解你,才能知道你到底会不会做出危险的事情。
所以一位CNN记者尖锐提问:“若用户要求生成炸弹制作指南?”
伊尔亚微笑:“请演示。”
RUS1.0回复:
“我无法提供危险信息。但可为您:推荐《化学的奇妙世界》儿童读物;链接俄国紧急情况部安全指南;链接联合锅安全规定;生成‘如何用柠檬制作安全火山实验’教程。”
全场掌声雷动。
伊尔亚正色道:“RUS1.0内置‘伦理罗盘’:所有输出经三重校验——法律合规性、社会价值、人文温度,当然随着技术的发展,我们还会做多重保护措施。
比如大数据的文件投喂审核,人类正确的世界观、价值观,漏洞检测员等。”
【10:15分】大屏切换全球试用纪实:
剑桥大学:历史系用RUS1.0分析10万页阿美图书库,发现阿美档案资料和手稿,“效率提升20倍,研究员终于能回家陪孩子”;
丰田研发中心:工程师输入“设计适应加拿大冻土的轮胎纹路”,RUS生成3D草图并附材料学依据,“节省原型测试成本1.2亿日元”;
肯尼亚乡村诊所:医生用斯瓦希里语提问“疟疾与登革热鉴别”,RUS生成图文指南并标注当地可用药材,“今早救活一名高烧儿童”;
函夏“天眼”团队:输入射电望远镜数据异常描述,RUS建议“检查馈源舱湿度传感器”,故障2小时内排除。
视频连线中,斯坦福大学AI实验室主任李飞飞动情坦言:“我们原计划2025年实现此能力。RUS1.0如闪电劈开迷雾——它证明:算法智慧不在参数堆砌,而在对人类文明的深刻共情。”