公众号矩阵
移动端

绝了!竟然有公司用算法裁员......

原创 精选
新闻
算法裁员,你怕了吗?

  这几个月来,微软、谷歌、甲骨文、苹果等一众科技巨头纷纷裁员。日前,Meta成为又一家启动大规模裁员的科技公司。在这波裁员潮中,Meta的操作引起了诸多争议。争议焦点在于它将裁员的决定权“交”给了算法。

被算法“炒鱿鱼”的合同工

  据悉,Meta此次的裁员对象是60名合同工。这些合同工是Meta经由埃森哲奥斯汀分公司聘用的,主要工作是帮助Meta审核其各社交平台的帖子,识别并标记暴力色情等违规图片,监督商标侵权等问题。虽然属于外聘,但他们也能享受Meta正式工的大部分福利。

  但在近期,合同工发现Meta不仅在陆续取消他们的各种福利和补贴,对他们的绩效管理也渐趋严苛。据有关人士爆料,只要合同工的电脑有超过8分钟的不活跃时间就将被自动判定为在“休息”,进而被计入到每天规定的休息时间之内。如果休息时间超额,就会被系统自动警告并列入绩效改进计划。

  而这种激进的做法成为了裁员的序曲。很快,一批合同工收到了裁员通知。他们被告知将于9月2日解约,而薪酬结算至10月3日,即公司仅为此多付一个月的工资。

  至于裁员的原因,Meta方面语焉不详,只表示裁员对象是“随机”选中的。而埃森哲方面则透露,是算法“提供”的名单。

  此事一出,不少人质疑算法裁员的做法过于简单粗暴,并不具备信服力。也有人戏称,以后机器将“掌握”公司的生杀大权,高管们可以躺平挣钱了。

来自机器的冰冷“审判”

  虽然Meta裁员事件中只涉及合同工,但打工人普遍可以感受到某种危机的逼近——那种来自于机器的冰冷“审视”和“审判”。

  近几年,尤其是疫情迫使远程工作成为一种常态后,越来越多的公司开始将算法作为考核员工、评定绩效,甚至决定裁员与否的重要工具。算法隐于幕后,承担起“监工”和“审判者”的作用。

  去年8月,俄罗斯一家在线支付服务公司Xsolla使用算法解雇了包括工程师在内的150人。为保证疫情期间线上办公的效率,Xsolla从去年年初启动了一套全新的由AI驱动的绩效评价系统,让机器以百分制自动给员工打分。

       而根据Xsolla的说法,算法裁员的判定标准主要来自于员工的“数字足迹(Digital
Footprint)”。所谓数字足迹,就是员工在线工作时的种种执行动作,包括是否及时阅读并回复邮件,是否在内部讨论中踊跃发言,是否能积极协作共同编辑文档,是否准时上线参与远程会议等等。

       由于Xsolla的业务发展在去年下半年严重受挫,不得不以裁员的方式缓解经营压力,这套由AI执行的绩效评价系统就此发挥了作用。其CEO Aleksandr Agapitov在发送给被裁员工的邮件中措辞强硬地表示,AI追踪了他们线上办公的各类履迹,发现他们没有时刻保持工作状态,认定他们为“不敬业”或“效率低下”,所以Xsolla与他们并不适配。

  Xsolla不是第一家采用算法裁员的公司,但其在这一过程中表现出的立场却值得深思:靠数字足迹判断员工合格是否合理?未来打工人是否必须按照AI的好恶来行动?

申诉无门的打工者们

  事实证明,当机器的“审判”成为唯一标尺,人的声音终将被湮没。

  亚马逊很早就开始构建一整套人工智能效率监测及评估系统,其Flex“零工司机”物流配送项目也由算法所掌控。算法会监督司机们的日常工作及路线,比如是否在规定时间完成了配送、是否将包裹放到了指定位置,再综合司机们的表现将他们分成不同评级,不合格的员工将直接收到系统自动发送的解雇邮件。

  但在实际操作中,很多司机都遇到了不可控的运送延迟问题。比如,亚马逊系统会在深更半夜给司机派发带密码的公寓大楼的配送工作,结果是既找不到人开门,用户电话也无人接听;再比如,亚马逊系统要求将包裹送到指定储物柜,但司机却发现储物柜故障打不开,等拨通服务电话后又被通知将包裹退回分拣中心。

  尽管这些意外都是由于算法失误导致的,但结果是很多司机因此评分下降,甚至被辞退。更令人无奈的是,在被算法错误判定责任后,司机们基本申诉无门,因为申诉后,面对的也是机器人的自动回复。申诉,自动回复,再申诉,继续自动回复,循环往复,无有出期。

  “当你对抗的是机器,就不可能赢,所以甚至不想去尝试。”一名被解雇的司机感慨道。

  整体上看,机器能比人类更快、更准确地做出决策,降低人力成本,所以Flex项目对于亚马逊来说是成功的。它填补了巨大的司机缺口,帮亚马逊完成了最后一公里运送。但这种运转机制也让众多零工司机成为了“消耗品”,哪怕因算法受到不公,也只能和机器申诉,和机器对抗,最后还要被机器踢皮球。

别让AI取代“人性”

  对企业来说,将日常管理、监督、考核等流程通过算法实施,无论实际执行效果如何,主要还是为了降本增效。近年来,越来越多的企业都开始引入复杂的OA算法管理系统,但有时候,这种趋势也存在某种危险的倾向。

  首当其冲的就是其无孔不入的属性。画面识别工作状态,让员工心率、呼吸、疲劳度等数据一览无余;电梯摄像头与OA系统相连,还配置录音设备,让员工开个玩笑都要谨小慎微;更有甚者,计算员工去卫生间的时长,并与绩效挂钩。如此种种,“管理就是数字”变成了真实而残酷的现实。

  算法裁员也是这一不断升级的管理手段下的产物。但稍加思考,这一手段背后其实隐藏着种种“不可解”:

  其一,算法的“黑箱性”让人无法信服。这也是人工智能长期面临的AI模型的透明度和可解释性问题。算法判定裁员的标准,到底是如何运作的,可能连开发人员也不能很好地理解其具体细节。不解决这一问题,也就无法让人信服,还会带来算法歧视、算法安全等方面的质疑。

  其二,算法裁员的“合法性”让人存疑。算法开除的决定是否符合劳动保护条例?算法作为裁员的唯一依据,还是算法作为裁员的部分参考,两者显然存在明显区别。如果只是试图让算法“背锅”,拒绝人性化沟通,算法裁员无疑就成为了公开的笑柄,引起的必是员工的逆反和公众的群嘲。

  其三,算法裁员在某种程度上抹杀了员工的“个性”。算法裁员机制下,每个员工都成为了面目模糊的数字孪生体,被不可避免地异化了。他们的工作过程、工作成果被系统量化,记录成一个个数字,本该更具人性化关怀的裁员沟通也因算法的介入变得极度冰冷。

  当AI深入到企业经营的关键领域当中,有个问题越发突出:机器是无法完全理解人的,人的行为和思想也不可能完全被量化,要警惕AI取代/削弱人性。

  工作时间去公司楼下买个面包,不意味着工作不负责;与同事交谈开个玩笑,也不代表办公不认真;摄像头前没有时刻精神饱满,不代表工作成果不完美;在卫生间多待几秒,更不能和磨洋工划上等号。时刻处于“监视”之下,那是“犯人”,不是“员工”。

  算法再强、AI再智能,也无法突破0和1的字符世界,洞察人性的幽深,明辨世相的曲直。人机共生的和弦里,技术的力量音符上必然要加持人性的辉光。

  参考链接:

http://www.sycaijing.com/news/details?id=124188&type=0

http://baijiahao.baidu.com/s?id=1703877376413964405

http://www.elecfans.com/d/1706076.html

http://baijiahao.baidu.com/s?id=1688827286904015443

责任编辑:张洁 来源:
相关推荐

2021-09-15 09:12:30

2021-09-15 05:19:35

2022-08-21 21:21:42

2009-07-30 08:29:08

2022-01-07 10:24:58

2021-11-08 09:40:41

2022-03-25 19:19:39

2021-12-07 11:57:54

2020-02-27 00:19:30

2009-02-17 08:41:57

2019-11-05 14:46:51

2009-09-24 09:51:51

2019-02-19 15:16:31

2020-04-22 11:19:07

2021-02-27 11:03:26

2021-09-04 23:40:53

2020-06-10 10:32:10

2017-02-05 17:10:17

2021-04-14 12:07:03

2010-08-12 16:23:21

点赞
收藏

51CTO技术栈公众号

业务
速览
在线客服
  • 媒体
  • 51CTO
  • 社区
  • 教育
  • 必威体育app手机下载 龙8国际龙 必威体育app官方版下载 龙8官网手机版国际 龙8国际pt官方网站 龙8国际官网注册 必威体育精装版app下载 龙8娱乐游戏国际 必威体育app官方版下载 必威体育app手机版