近期,因为尝试将离职员工训练成人工智能数字人继续工作,让山东的一家游戏传媒公司备受关注,引发了公众热议。
员工是否会被AI取代?AI数字分身产生收益、出现差错,责任如何厘清?“这是社会焦点,也是最不能模糊处理的问题。”4月8日,山东省计算中心(国家超级计算济南中心)主任吴晓明向科技日报记者表示,“‘知情同意’只是起点,‘技术可行’也绝不等于‘商业可用,法律无虞’。”
第一问:如何训练AI数字人,成本高不高?
在吴晓明看来,训练AI数字人并不是简单做一个会说话的虚拟形象,而是把一个人的外在表现、语言风格、知识结构、工作流程等,转化为可被机器调用和复用的“数字能力体”。
“从技术路径看,它通常包括四个层次。”吴晓明介绍,第一层是形象建模,即采集人脸、表情、动作等视觉特征,生成可驱动的数字形象;第二层是声音复刻,通过语音样本训练音色、语调和节奏;第三层是知识注入,把个人在长期工作中形成的业务知识、问答语料、表达习惯、处事逻辑沉淀为知识库或专属模型;第四层是流程编排,让数字人不只是“像某个人”,而是真能在多样化的场景中完成任务。“严格来说,前两层解决的是‘像不像’,后两层决定的是‘能不能用、好不好用’。”吴晓明说。
山东大学信通电子人工智能研究院常务副院长、教授韩忠义表示,训练一个基础型数字人并不难,成本也没有外界想象的那么高。
在他看来,如果企业要将其做成一个“精明能干”的数字员工,那成本就不低了。“贵的不只是技术本身,更是数据整理、业务接入、后期维护。而更为重要的,是使用数字人须得合规。”韩忠义的一席话,指向了公众对AI数字人的风险管控疑虑。
第二问:AI数字分身如果出错,算谁的?
尽管离职员工知情同意,但倘若AI数字分身对外提供服务出现了纰漏,责任谁来承担?齐鲁工业大学数学与人工智能学部副主任李彬表示:责任划分不能停留在一句“员工同意了”。
“AI分身一旦对外提供服务,它就不再只是内部实验,而是进入了交易、传播和组织治理体系。”他表示,AI数字分身进入市场至少涉及三类权利边界,一是人格权益边界,包括姓名、肖像、声音、隐私、名誉等;二是个人信息与数据边界,包括采集了哪些数据、如何训练、保存多久、能否二次使用;三是劳动成果和商业收益边界,即员工多年形成的经验、话术、方法论,到底哪些属于个人特征,哪些属于职务成果,哪些可以授权使用,哪些不能无限扩张。
他指出,比如《中华人民共和国个人信息保护法》要求处理个人信息应具有明确、合理目的并遵循最小必要原则;《中华人民共和国民法典》人格权编也明确保护姓名、肖像、名誉、隐私等合法权益;现行深度合成和生成式人工智能治理的相关规则,进一步要求服务提供者落实内容审核、数据安全、个人信息保护等责任。
“换句话说,即便有授权,也不能一劳永逸,取得‘无限复制、永久使用、任意变现’的通行证。”李彬说,“一旦AI数字分身对外服务,收益和责任更应当按照‘谁控制系统、谁设定规则、谁从中获益、谁承担主责’的原则来划分。”
第三问:AI数字分身是否会催生全新职场模式?
用AI数字分身承接基础事务性工作,是否会催生全新的职场模式?针对这一问题,受访专家几乎都给出了肯定的答案。
“这种变化不应被简单理解为‘AI替人’,而更应理解为‘人机协同重构岗位’。”吴晓明说,AI数字分身并不只是替代某个人,更是在推动岗位由“本人亲自完成”,转向“本人设计规则、训练系统、监督结果、兜底风险”。吴晓明进一步指出,从这个意义上讲,有可能催生“数字员工训练师”“行业知识标注师”“人机协同流程设计师”“AI风控审校师”等新角色。
“新岗位的出现,并不意味着机器把人一下子替掉了,而是慢慢变成AI先做一轮,人再来判断、把关和兜底。”韩忠义说,岗位会重新分工,管理方式也会变,企业看重的不只是员工自己干了多少,还会看他能不能把AI用好、管好。
“不过,需要冷静看待的是,新模式会提高效率,也可能压缩一些初级岗位。”韩忠义表示,真正值得鼓励的方向,不是把人变成一个可以随时复制的工具,而是让AI去接住那些重复劳动,把人放到更有判断价值、更需要责任心的工作上。
“归根到底,AI最值得追求的,是构建一个更高效、更公平、更尊重人的智能生产体系。”吴晓明说。
免责声明:本网站所有内容仅为信息存储服务,不构成任何投资建议。投资者据此操作,风险自担。金融市场有风险,投资需谨慎。