面试环节“立人设”?AI面试官没有那么好糊弄-火狐体育

激光雕刻机 | 2021-05-18

【火狐体育直播】社畜们表演的顶点通常不是拉各种锅,而是用来当面试官的。 但是,现在想用“立人设定”来混合试镜,但没那么简单。 人工智能着火后,很多企业的试镜接力棒也交给了AI,“面经10级”的打工之路被掐住了命运的脖子。

从去年开始,很多学校招聘季的金字招牌也在试映环节减少了AI试映/Digital Interview。 许多采用平台以智能试镜系统为业务增长点,起着技术传火者的作用。 对应聘者来说,如果告诉他们面对的是AI这个“碍事虎”,知道自己很累和得到感情,不是很多人都深深地感受到了亚历山大吗? 特别是应届毕业生,以前前辈、前辈们的措辞给我们指路,但面临着“AI面试官”的新东西,在市场上没有什么有效的经验。

今天我们来谈谈AI试镜的实地调查边界在哪里,以及如何“进击”。 在AI洪水的背后,使用者的阳谋,如果看到心电图企业和职场必须重新做AI这种关系,就毫不犹豫地在战略上中伤,战术上尊重,往往是AI面试官的前提条件。 因为借用AI的名字太多,显示宣传教训的“金主爸爸”在市面上销售。

其中,以最适合大众规模市场的快消品领域为受灾地。 年的校招等中,投放“AI试镜”的招牌的多是食品饮料(可口可乐)、日化用品(宝洁、联合利华)等。 另一方面,这些企业岗位大多没有得到特别的专业许可,而且身着跨国500强有力的光环,履历检查的压力非常大。

火狐体育

另外,学校的把戏也是年轻人中“博关注”的好时机,很多公司提出了“寻找未来管理者”的口号,竞争极其白热化,Open Question、AI试镜、游戏项目管理等创新性的采用这也是AI试镜系统必须满足两个主要的表现意见。 第一,上市的时机是否足够快。

这样就可以在宣传中“先声夺冠”。 其次,数据的多样性和算法的鲁棒性不足以在种族歧视、通过率等方面爆发应聘者的负面情绪。

因此,这些品牌企业使用的AI试镜解决方案往往是通过第三方算法公司在市场上融合更成熟期的AI技术应用于研磨的体验。 从这个意义上来说,AI选秀系统在可行性的大致检查中不能起到一定的辅助作用,很难彻底要求不能得到报价,反而是第一次面试官在感性判别(如颜值、口音、毕业大学等)上另一方面,基于深度神经网络模型的训练逻辑和现在的NLP、面部识别、感情算法等技术天花板也给应聘者提供了追踪AI系统考察点,逐一击退的机会。 让我们逐一了解这些能力不同的面试官之类的东西。 进击可玩性一星:解说AI试镜这个产品,多是将NLP自然语言解读技术和语音识别算法相结合,以解说形式提供一些职场给予相关的重要信息。

日本人才公司En Japan对着即将毕业的大学生不问问题的手机,进行了长约1小时的一问一答的试镜。 包括126个问题。 看到求职者被虐待到最后,保持沉默……这样的“面试官”利用语音算法、统计资料语音、语调等,分析应聘者的反应速度、心理感情等。

另外利用NLP算法,对问题展开关键词和语义分析,融合与企业业务和职场市场需求相关的问题,如不能回答快消品的“宝洁八大问题”及其变种,展开适合度的初始判别。 只根据声音和语言的特征选择人的面试官,因为参数是人为改编的,预先消除了说明的感性嗜好,所以在判别上也不公正,也可以一起打的放箭。 首先,许多这些试镜软件是早期设定问题和答案的标准问题。 例如,前述的En Japan测试软件收集了过去15年的试镜解说训练,与基本信息、工作技能、性格特征等有关。

与人类面试官谈论日常恶化的气氛、明确提出刁难问题等不同,AI选秀系统一眼就交替提问、参加选秀前做作业、理解使用者的企业文化和使用者理念、节奏另外,和中考前老师反复警告说“写可爱的字比较印象深刻”一样,提问AI的时候最糟糕也可以。 尽量用于符合机器逻辑的组织语言。

因为AI主要基于语音的动态转移、关键词提取的给出方法、意思解释来判别有无求职者和是否想给出职场的记述。 因此,明确了一些适当的硬指标hard skill,在陈述中明确了一些关键词,如领导能力、国家级项目、转化率、团队意识等,有助于AI的给予和检查。 按图,也许AI比现场试镜更不easy。

玩性二星:视频AI试镜如果你看到的企业实力更强或者不懂技术,即使正面碰到视频AI这样的高级版面试官,概率也会更高。 简单来说,视频AI试镜是基于智能解说的,AI是动态分析应聘者的表情、肌肉动作等,判别应聘者回答的真实性、性格偏差,多维实地调查候选人是否像企业的理想候选人。 很多同学的心不是都凉了吗? 白眼和东张西望等表情语言也有可能成为“背叛”,现在可以去看《lie to me》 (以微表情心理学为主题的美剧)等吗? 我想攻击能像这样看到语言颜色的面试官,不仅仅是不可或缺的网络检查和仪容仪表(人类面试官也会注意到吧),还必须从技术上的理解来战斗吗? 令人放心的是,利用AI构建表情的感情识别在算法上没有充分的科学依据,即使是微软公司、Google、IBM这样的AI巨头,感情识别算法也不致密,是否适用于采用场景呢? 因此,兼职软件监视感情过滤器求职者也被认为是不合理的。 比如皱眉不是“愤怒”的感情,也不意味着著面试者没有合作等特质。

视频试镜发挥更多作用的地方只不过是识别最坏的人。 以高盛、摩根大通、缅甸威、联合利华、皇家等大型集团使用的HireVue和Sonru为例,通过认识15000的特征,包括可以自由选择的语言、运用的词汇、眼神表现、声音大小等。

据悉,目前希尔顿集团已经利用其算法试镜了43000多个职位,在全世界,HireVue系统每季度获得了100万次试镜和最多15万次任用前评价。 正如其技术负责人所说,“人类语言、肢体语言和传达的极端复杂性,必须充分注意算法种族主义和潜在危害的影响”,在客户以几个主题筛选了90%的求职者的情况下,“考察点的范围太小”。 理解了这个视频AI试镜的基本原则后,没有发现不用注意AI。

我们可以找到一些投票算法好的小tips,但所有的习惯都可能影响你将来工作的喜悦,所以建议更多的人总是充分发挥。 例如,只有10%-30%的分数权重以表情要求,其他大部分用各自不同的面试者的话表示。 词汇中,多用于符合目标企业嗜好的特征词。

求职者是动词还是主动词,经常是“我”还是“我们”,是否频繁地用于技术用语等,不影响系统适应度的评价。 如果有人说你知道声音的调子非常快的话,可能不适合专心做电话咨询等工作,但太早的话用户也很快就不知道了。 带着共鸣寻找最适合心中职场的状态,比起数据,“感觉”也许更可靠。

进击可游性三星:读不懂心的AI,这里不是已经感受到社畜的感慨了吗? 不要再匆忙悲伤了。 如果你“意外”试映的是加载你的社交网络的AI出版系统,你不能在算法下“吵架”后,卖彩票恳求自己。 在这个关闭中,AI经常不根据简单的数据分析求职者的日常行为,而推论与职场有匹配度。 不久前,加利福尼亚州第一家公司Predictim利用NLP技术和计算机视觉技术,扫描保姆岗位应聘者Facebook、Instagram和Twitter的历史,她们可能嘲笑和入侵别人当然,这样的面试官很快就处于行业领先地位。

Facebook指出该公司违反了这些信息审查求职者的禁令,很大程度上允许了该公司在Facebook和Instagram上提供用户数据的渠道。 推特也中断了Predictim对API的采访。 这是因为禁止将Twitter数据用作监视目的。 由于第三方网站HIN收集li nkedIn的数据,预测员工什么时候可能退休,因此在兼职平台li nkedIn上也再次发生了类似的算法风险。

科技巨头以独特的态度区分这种AI试镜系统和边界,主要是机器学习抑扬和语言的微妙差异,比如讽刺和笑话是不可靠的,在试镜场景中应用非常不稳定。 另外,这样的算法还不能监督,即有黑匣子性,在本来可能敬业的员工中,在不告诉原因或者无法说明的情况下失去工作机会的可能性很高。

火狐体育直播

另外,把试镜顺利的决定性因素交给AI似乎也不符合技术伦理。 如果某企业从决策者的嗜好/种族主义出发,需要在小范围内、使用单一化的数据集展开训练,AI试镜的公正性也会丧失,也有可能加剧企业年龄、种族等方面的种族歧视和敌视问题。

正如UCL嵌入式教授安娜考克斯所说,“任何数据集都有偏差,可以避开擅长这项工作的人”。 很明显,现在让AI分析采用试镜过程的简单因素,是在争论中前进的未来。 但是技术车轮正在加速。

IBM宣布Watson (华生)将用于积极搜索内部培训系统的数据,通过了解员工培训和自学情况,判断是否有晋升的可能性,展开内部审查。 从这样比较结构化的数据到试镜采用,很多求职者可能也会走。 过去可以看到几个机械化程度低、数据结构简化的领域,可以说文件、翻译、识别等被AI取代了。

现在,试镜这种充满著交流感性色彩的领域也无法生存。 幸运的是,技术魔法已经褪色,掌握科学知识之剑的人会找到AI和“工作”的最好方法。 在一次对决和交战中递归和优化,最后进入了人机调教的阵痛。|火狐体育直播。

本文来源:火狐体育-www.sierrapol.com