第34章 内外培训
繁忙的慕星海在慕浅溪的安排下,今天给内部员工进行ai方面的培训。
主要还是道德规范上的要求,这些人技术上本来就是很厉害的,才被选拔进来。
越是厉害的人,特别是高学历、高技术人员,在待人接物、世界观、人生观等方面,有很大不足。
现在国家层面的道德规范要求,已经对ai行业提出了明确要求,慕星海是发起人,所在公司自然不能落后。
对高智商的人、特别这些行业翘楚,常年与不带感情的机器、代码打交道,很多人从严谨的科学思维,变成了接受伦理道德上的“固执”。
不能和他们讲“大道理”,这些人知道怎么应付你,当时答应得好好的,谁知道心里怎么想的呢,今后也会原形毕露,留下隐患。
慕星海给自家的专家们上课,第一次很用心的备课,自己的稿子都修改了好几次。
他自己试着用他们角度看这些稿子,总能“杠”出很多问题!
算了,最终,他把这个稿子交给他老爸慕山河,去看看怎么修改。
毕竟,慕星海自己就是被他父亲,教育得很是了不起,包括思想境界上。
慕山河看了他的稿子后,对慕星海心里是非常赞赏与满意的。
如果单论他那个稿子,润色一下,发布到网上,也是火爆文。
但是,又的确如慕星海担忧的那样,这些聪明的家伙,当时一个个训得“听话”,脱离监管呢?
慕山河也思考了很久,他也找了科学院关系好的同事,特别是在政治思想工作上,做的好的干部,探讨相关教育人的经验。
经过大家反复思考、辩论,他们有了几个方法,然后让慕山河对慕星海说一说,试行一下。
慕山河与他儿子通电话:“小海,经过我与几位伯伯讨论,我这里有几条意见,与你说一下,如果可以,你试一试。”
慕星海答应道:“好的,爸爸,你说说看,你们总比我见识多、经验多。”
慕山河说:
“1、必须要有耐心,不能着急。思想境界不高的,某种程度上看,属于心灵发育没有成熟,好比小孩子一样,一直需要呵护教导。”
“2、对个体要有针对性。总有人在思想境界上落后,不能用一个高标准度量他们,我们不能歧视,更不能放弃。”
“3、有问题的和没有问题的,要隔离开。一筐橘子,如果发现有腐坏的,一定要挑出来,如果好坏挤在一起,好的果子也会变成坏的。”
慕星海一边听他父亲说,一边思考。
虽然话语简单,但是聪明人一点就透。
“好的,爸爸,我明白了,我会采纳你们提出的意见。会把相关问题控制在恰当程度。”
慕星海这才解开心结。自己也真是太着急了。
在思想上看待别人的不足,跟过去自己以高智商去蔑视人,差不多一样的情形。
慕星海也在回忆,其实自己的高思想境界,也是漫长的一二十年,受到潜移默化教育的结果。
想通以后,原来的备课稿子,仍然可用。
如果里面内容有什么缺陷,他们非要“杠”,“杠”就是了。
还是那句话:事实会教育他们!
包括牢房,总有一间让他们“喜欢”。
花了几天,陆续将内部人员思想道德内容培训完。
然后,慕星海又开始制作自己的ai,去讲解ai技术知识内容。
他没有选择自己真实形象,慕星海一直不爱抛头露面,间接的也有安全方面的考虑。
本来,他想选一个卡通形象代替他,问了一下慕浅溪的意见,还有赵百灵这种年龄段的,因为很多学生学习ai,会选到慕星海的课程。
“真丑!”
“这个呢?”
“更丑!”
最终,由赵百灵打主力,慕浅溪也掺和了一下,选了好几十个形象,供选课的人自己选择。
这个无意之举,后面成了一个ai教学的潮流。
总有老师不好看的吧。
由学生们自己修改讲课人形象,算是一种接地气,符合某种教育心理学。
在ai课程里,一个卡通小萝莉讲着一段不合乎年龄的高深课程。
“ai展现的数据结果,是否准确?由原来ai自行负责吗?”
“如果它说1+1=3,你是否采纳这个结果?”
“因此,必须要另外有一个标准型ai,去界定其它ai相关数据是否准确。”
一个大胡子海盗形象ai老师,讲着这样一段话:
“ai之间的区别与联系,就如我们人类社会的分工与合作。”
“这些分工与合作,是透明的,一般用户是看不到,也不需要他们看到。”
“并且,如果ai将来诞生真正的智慧,各功能ai必须互相屏蔽,不能让彼此知晓!”
“这是ai系统的安全要求,并且各ai将来微型化以后,尽可能的要有冗余。”
“一个功能模块损坏,相同的功能模块必须及时补充上去。”
一个学员对着电脑提问:“怎么能保证ai不会出现故障?”
一个职业装女性ai老师回答:“宇宙万物都有生灭,何况人造物,再怎么精细,作为产品的各类ai,有质量问题,或者其它故障,的确不能保证。”
“这就需要引入另一个ai进行监管、测试、上报。”
“好比我们人,很多人平时不痛不痒,觉得自己没有生病,到医院一检查,有可能就发现出潜藏的疾病。”
一个有着长须、仙风道骨般的中年男性ai讲述着:
“法制与伦理ai模块,是所有大型ai的核心。”
“这类ai必须得到更深度的隐藏,不能被其它ai破坏,更不能被人类自己破坏。”
相关的理论课程,本来很枯燥,但在有“好感”的ai老师讲解下,枯燥性降低了很多。
并且,这些课程,不但是理论要求,其论断也必须转化为数据指令,让ai执行。
设计人员若不遵守这些要求,很可能制造出来的ai,将来会破坏ai行业、危害整个社会!
实操来看,如果违反相关作业标准,责任人的饭碗也不保!
随着各类督导功能型ai发布与集成,很多社会环节,都在ai监管下了。
这些ai设计要求,除了华国自己严格遵守。大部分国家,特别是那几个老牌工业国家,延续以前思维,为了资本利益,不愿意像华国这样严格遵守。
“增加这么多ai模块,吃饱了撑的!增加了我们的成本,在市场上怎么有竞争力!”
“不错,华国人多,他们需要解决就业问题,一个事情用八个人来做,我们不能学!”
“我们不能自缚手脚,ai就是商品,要升级、要消耗,不能长期让客户不换。”
相关ai设计理念,东西方不相符。
还是有西方人要求安全、隐私等,受到保护。
一些设计与制造公司,也针对那帮“刁民”,出了一些型号,让他们自己决定,选择与否。
方法很简单:加钱!
更多的普通民众觉得还是价格便宜的划算。到目前为止,华国人“杞人忧天”的问题,在西方各国还没有发生。
或者发生了,普通民众肯定是不知道的。甚至于有些普通人,愿意利用ai的漏洞,谋一些私利。
总体来看,西方的ai又重新发力,赶超了东方大国。
少量的公知出来,普及了西方ai的状况,痛心疾首华国在ai上又落后了。
人民是有眼睛的,好与坏,看得清。在这相关行业上,还是稳扎稳打地按计划行事。
王峥毅这次又来与慕星海沟通处理技术问题。
“慕博士,ai罪犯我们已经搞得七七八八了,现在又加上社会在讨论其它功能模块的集成。我们这个特殊ai需要这样处理吗?”
慕星海已经将警务部的技术人员带出师了,由他们继续完善后面的开发。
就如慕星海一开始规划的那样,只要骨架正确了,后面就是增加一些填充的东西了。
慕星海说:“如果这个ai罪犯,不流出到外面呢,除了一些质量模块,也的确没有必要,再添加多余的东西了。”
“虽然你们是保密单位,还是要做最坏打算。”
王峥毅问:“怎么做?需要加什么模块?”