说你人机就一定在骂人?


3楼猫 发布时间:2024-06-24 18:31:31 作者:老吴别怕 Language

最近有一个脑洞,Ai模型的训练很像真实的人生。

从出生起,人们就带着许多超参数的差异,有的人自带适配模型训练的优质参数,在第一次训练的时候就能达到非常棒的训练效果,有的人甚至过拟合,但是有的人直接就是最垃圾的参数权重,并且在多次的训练优化后甚至达不到别人的起点。

再说到训练时数据集的优劣,大多数人从出生起最先接收的是来自上一代的数据输入,有的聪慧良善,有的精明勤奋,但有的却是带着人性幽暗的一代代传承的污染的数据集进行被动输入,这就好比训练的数据集不能不能对模型的优化起到一定的正向作用反而带着病毒,甚至有污染硬盘的可能。

除了接收来自上一代的数据,有的人也会不断地在以后的人生中接收或正向或反向的数据输入,进入的学校,结交的朋友和工作的同事,人像一个不断接收训练的Ai模型,被各种各样的数据训练,接收正反馈或者负向反馈。

恋爱脑们把恋爱的权重在自己的人生模型中调的非常高,是怎么样的初始数据使得他们在后面的训练中形成了这样的畸形权重不得而知,也许是来自上一代的数据输入缺乏爱意,也许是来自某一本书或电影的数据输入对爱情给予了高期望。最后他们在一次次失败恋爱的残酷打磨中,开始被负向反馈折磨,而后开始变得不相信爱情。

工作对很多人的人生模型优化的权重同样非常高,在深夜的格子间里努力敲字,写PPT汇报,写日报周报年报,在老板“你这样努力勤奋的人就是公司的支柱,你就是我的兄弟”的评价中迷失,不断强化工作对自己的人生模型的权重。

许多不重要的数据可能会被更优质的算法在数据预处理的时候给屏蔽和过滤掉,但是对于只使用简单算法的模型来说,过载的数据输入使得模型的训练变得懈怠,甚至训练过程只是白白浪费电。娱乐圈的瓜,疯狂洗脑的短视频、以及男女领袖们各自带的疯狂节奏,使得模型的训练的效果产生震荡与波动。

Ai模型训练时也有自己的底线,在使用梯度下降算法时,虽然不知道下一步走的最优解是不是全局最优解,但是大概率是不会叠返到不合适的走过的路。但是人脆弱的思想滑坡起来,走的梯度下降,犯过的错误来回犯,连最垃圾的Ai算法都会直呼内行,所以有的时候被骂人机是不是得先考虑下自己比不比的上人机。

尽管如此,但是仍然有一个值得庆幸的地方,那就是不管你的人生模型训练的再好或者训练得再垃圾,也逃不过最终在内存和硬盘中被完全释放的结局。


© 2022 3楼猫 下载APP 站点地图 广告合作:asmrly666@gmail.com