黑色镜子遇到1984年。想象一下,您的雇主使用机器人来跟踪您的“生产水平”。当这个机器人发现你是一个表现不良时,它会消灭合同终止邮件。这听起来像你所居住的世界吗?不幸的是,对于某些人来说。

案子

亚马逊多年来一直使用算法管理其在线市场上的数百万第三方商家。这些年来,许多销售者因出售假冒商品和哄抬价格而被革职。这是合理的。但如果决定的一方是机器人,你会和谁争论呢?

现在,根据彭博社的一项调查,亚马逊正在处理它Flex的司机以同样的方式。Flex Drivers是“演出的”工人,他们处理尚未进入亚马逊面包车但需要在同一天交付的套餐。

跟踪工作流程

因此,被机器人解雇并不是我们想要警告你的事情,因为它可能在未来发生。它已经发生了。正如我们之前报道过的,许多雇主认为有必要窥探他们的劳动力,特别是现在在家工作(WFH)是在讨论中。如果我们现在继续在家中工作,看起来像办事处在许多国家慢慢开放?我们现在可以找到一些中间人,我们发现WFH比我们预期的要好得多吗?到目前为止,许多组织都有工具和基础设施,以允许WFH在可能的地方和尽可能下。工人甚至想要继续在家工作吗?即使他们不会大声说出来,我也想让许多人乐意回到办公室。正在监控,在家里还是在办公室,让任何一个更容易?

世界末日情景?

那么,工作流跟踪与机器人解雇真人有什么关系呢?在亚马逊的案例中,算法收到了司机活跃时间、他们在那段时间内完成了多少件送货,以及所递送的包裹是否被所谓的“门廊海盗”盗窃的信息。这些数字被整合到每个司机的评级中。如果有太多的差评,司机可能会收到邮件,告诉他们不再需要他们的服务。

彭博会采访了15个Flex驱动因素,其中包括四个说他们被错误终止的人以及前亚马逊经理,这些人认为基本上自动化的系统不充分意识到每天挑战司机队的挑战。

责怪该方法,而不是机器人

有些人会争辩说计算机是无情的机器,而且它们是对的。但是,将这种决定留给机器的经理呢?他们隐藏在算法的决定后面,因为它们不是足够勇敢的措施来制作这些决定?或者正在招聘和射击这样一个法律雷区,更容易将其留给算法?

它甚至不是算法的盲目信任。当这样的生命变化的决定留给机器时,这是耸耸肩。管理层如何找出算法中是否存在缺陷,而无需彻底调查?据彭博会,由于200美元的费用,许多亚马逊Flex司机并没有将他们的争议争取仲裁,并且对成功的绝佳期望。在这样做时,他们也可能否认算法需要它需要的“假阳性”数据,以便改进。

人工智能和人为决策

在诸如营销和分配之类的经营职能中,人工智能(AI)已经能够加快流程,并为具有可靠洞察的决策者提供决策者。在我看来,描述了这应该是如何工作的。该算法可以产生它想要的所有数字,人类决策者可以评估是否有理由与员工交谈,似乎正在下面表现下方。找出正在发生的事情。缺乏结果的原因是什么?讨论如何恢复令人满意的程度。有一个赋予员工的对话。研究已经表明,当员工在工作中感到被授权时,这将导致更强的工作表现、工作满意度和对组织的承诺。这听起来比卷入仲裁案件好多了。

潜在的问题

在接受彭博社采访时,前亚马逊经理指责他们的老雇主知道,把工作委托给算法会导致错误和损害新闻标题。他们说,相反,亚马逊认为,相信算法比付钱让人调查错误的解雇更便宜,只要司机可以轻松更换。

那些被机器人解雇并不辞辛苦质疑自己糟糕评分的人说,他们得到了自动回复。至少,他们无法判断自己是否在与真人交流。据彭博社报道,一名前司机支持呼叫中心的员工称,数十名几乎没有接受过培训的兼职季节性工人在为数百万司机监管问题。

算法

亚马逊拥有比大多数公司的人力资源运营更自动化。也许这些都是出牙的麻烦,或者也许他们过期了。肯定的是,无论是在亚马逊还是其他地方,使用算法都会做出对人们生活产生重大影响的决定正在进行进展。在我们进一步进一步转向黑色镜子到文件系列中,可能明智地思考我们将允许这些决定的影响程度以及我们不应该交叉的任何红线。