当前位置:盒饭小说 > 其他小说 > 赛博帝国:从买卖人口开始! > 第34章 内外培训

第34章 内外培训

<< 上一章 返回目录 下一章 >>
    繁忙的慕星海在慕浅溪的安排下,今天给内部员工进行ai方面的培训。

    主要还是道德规范上的要求,这些人技术上本来就是很厉害的,才被选拔进来。

    越是厉害的人,特别是高学历、高技术人员,在待人接物、世界观、人生观等方面,有很大不足。

    现在国家层面的道德规范要求,已经对ai行业提出了明确要求,慕星海是发起人,所在公司自然不能落后。

    对高智商的人、特别这些行业翘楚,常年与不带感情的机器、代码打交道,很多人从严谨的科学思维,变成了接受伦理道德上的“固执”。

    不能和他们讲“大道理”,这些人知道怎么应付你,当时答应得好好的,谁知道心里怎么想的呢,今后也会原形毕露,留下隐患。

    慕星海给自家的专家们上课,第一次很用心的备课,自己的稿子都修改了好几次。

    他自己试着用他们角度看这些稿子,总能“杠”出很多问题!

    算了,最终,他把这个稿子交给他老爸慕山河,去看看怎么修改。

    毕竟,慕星海自己就是被他父亲,教育得很是了不起,包括思想境界上。

    慕山河看了他的稿子后,对慕星海心里是非常赞赏与满意的。

    如果单论他那个稿子,润色一下,发布到网上,也是火爆文。

    但是,又的确如慕星海担忧的那样,这些聪明的家伙,当时一个个训得“听话”,脱离监管呢?

    慕山河也思考了很久,他也找了科学院关系好的同事,特别是在政治思想工作上,做的好的干部,探讨相关教育人的经验。

    经过大家反复思考、辩论,他们有了几个方法,然后让慕山河对慕星海说一说,试行一下。

    慕山河与他儿子通电话:“小海,经过我与几位伯伯讨论,我这里有几条意见,与你说一下,如果可以,你试一试。”

    慕星海答应道:“好的,爸爸,你说说看,你们总比我见识多、经验多。”

    慕山河说:

    “1、必须要有耐心,不能着急。思想境界不高的,某种程度上看,属于心灵发育没有成熟,好比小孩子一样,一直需要呵护教导。”

    “2、对个体要有针对性。总有人在思想境界上落后,不能用一个高标准度量他们,我们不能歧视,更不能放弃。”

    “3、有问题的和没有问题的,要隔离开。一筐橘子,如果发现有腐坏的,一定要挑出来,如果好坏挤在一起,好的果子也会变成坏的。”

    慕星海一边听他父亲说,一边思考。

    虽然话语简单,但是聪明人一点就透。

    “好的,爸爸,我明白了,我会采纳你们提出的意见。会把相关问题控制在恰当程度。”

    慕星海这才解开心结。自己也真是太着急了。

    在思想上看待别人的不足,跟过去自己以高智商去蔑视人,差不多一样的情形。

    慕星海也在回忆,其实自己的高思想境界,也是漫长的一二十年,受到潜移默化教育的结果。

    想通以后,原来的备课稿子,仍然可用。

    如果里面内容有什么缺陷,他们非要“杠”,“杠”就是了。

    还是那句话:事实会教育他们!

    包括牢房,总有一间让他们“喜欢”。

    花了几天,陆续将内部人员思想道德内容培训完。

    然后,慕星海又开始制作自己的ai,去讲解ai技术知识内容。

    他没有选择自己真实形象,慕星海一直不爱抛头露面,间接的也有安全方面的考虑。

    本来,他想选一个卡通形象代替他,问了一下慕浅溪的意见,还有赵百灵这种年龄段的,因为很多学生学习ai,会选到慕星海的课程。

    “真丑!”

    “这个呢?”

    “更丑!”

    最终,由赵百灵打主力,慕浅溪也掺和了一下,选了好几十个形象,供选课的人自己选择。

    这个无意之举,后面成了一个ai教学的潮流。

    总有老师不好看的吧。

    由学生们自己修改讲课人形象,算是一种接地气,符合某种教育心理学。

    在ai课程里,一个卡通小萝莉讲着一段不合乎年龄的高深课程。

    “ai展现的数据结果,是否准确?由原来ai自行负责吗?”

    “如果它说1+1=3,你是否采纳这个结果?”

    “因此,必须要另外有一个标准型ai,去界定其它ai相关数据是否准确。”

    一个大胡子海盗形象ai老师,讲着这样一段话:

    “ai之间的区别与联系,就如我们人类社会的分工与合作。”

    “这些分工与合作,是透明的,一般用户是看不到,也不需要他们看到。”

    “并且,如果ai将来诞生真正的智慧,各功能ai必须互相屏蔽,不能让彼此知晓!”

    “这是ai系统的安全要求,并且各ai将来微型化以后,尽可能的要有冗余。”

    “一个功能模块损坏,相同的功能模块必须及时补充上去。”

    一个学员对着电脑提问:“怎么能保证ai不会出现故障?”

    一个职业装女性ai老师回答:“宇宙万物都有生灭,何况人造物,再怎么精细,作为产品的各类ai,有质量问题,或者其它故障,的确不能保证。”

    “这就需要引入另一个ai进行监管、测试、上报。”

    “好比我们人,很多人平时不痛不痒,觉得自己没有生病,到医院一检查,有可能就发现出潜藏的疾病。”

    一个有着长须、仙风道骨般的中年男性ai讲述着:

    “法制与伦理ai模块,是所有大型ai的核心。”

    “这类ai必须得到更深度的隐藏,不能被其它ai破坏,更不能被人类自己破坏。”

    相关的理论课程,本来很枯燥,但在有“好感”的ai老师讲解下,枯燥性降低了很多。

    并且,这些课程,不但是理论要求,其论断也必须转化为数据指令,让ai执行。

    设计人员若不遵守这些要求,很可能制造出来的ai,将来会破坏ai行业、危害整个社会!

    实操来看,如果违反相关作业标准,责任人的饭碗也不保!

    随着各类督导功能型ai发布与集成,很多社会环节,都在ai监管下了。

    这些ai设计要求,除了华国自己严格遵守。大部分国家,特别是那几个老牌工业国家,延续以前思维,为了资本利益,不愿意像华国这样严格遵守。

    “增加这么多ai模块,吃饱了撑的!增加了我们的成本,在市场上怎么有竞争力!”

    “不错,华国人多,他们需要解决就业问题,一个事情用八个人来做,我们不能学!”

    “我们不能自缚手脚,ai就是商品,要升级、要消耗,不能长期让客户不换。”

    相关ai设计理念,东西方不相符。

    还是有西方人要求安全、隐私等,受到保护。

    一些设计与制造公司,也针对那帮“刁民”,出了一些型号,让他们自己决定,选择与否。

    方法很简单:加钱!

    更多的普通民众觉得还是价格便宜的划算。到目前为止,华国人“杞人忧天”的问题,在西方各国还没有发生。

    或者发生了,普通民众肯定是不知道的。甚至于有些普通人,愿意利用ai的漏洞,谋一些私利。

    总体来看,西方的ai又重新发力,赶超了东方大国。

    少量的公知出来,普及了西方ai的状况,痛心疾首华国在ai上又落后了。

    人民是有眼睛的,好与坏,看得清。在这相关行业上,还是稳扎稳打地按计划行事。

    王峥毅这次又来与慕星海沟通处理技术问题。

    “慕博士,ai罪犯我们已经搞得七七八八了,现在又加上社会在讨论其它功能模块的集成。我们这个特殊ai需要这样处理吗?”

    慕星海已经将警务部的技术人员带出师了,由他们继续完善后面的开发。

    就如慕星海一开始规划的那样,只要骨架正确了,后面就是增加一些填充的东西了。

    慕星海说:“如果这个ai罪犯,不流出到外面呢,除了一些质量模块,也的确没有必要,再添加多余的东西了。”

    “虽然你们是保密单位,还是要做最坏打算。”

    王峥毅问:“怎么做?需要加什么模块?”
<< 上一章 返回目录 下一章 >>
添加书签