特斯拉H-1B歧视案最新裁定:一封"H-1B only"邮件让工程师胜出初审,HR高管却因岗位性质被拒之门外核心摘要:美国联邦法官2月23日裁定,拒绝驳回工程师Scott Taub对特斯拉提起的集体诉讼。Taub称,招聘公司Max Eleven明确告知他某特斯拉职位"H-1B only",导致他作为美国公民被拒于门外。法官Chhabria认为,这封邮件虽"证据单薄",但已足够维持歧视指控。然而同案另一原告、HR高管Sofia Brander的指控则被驳回——法官认为特斯拉偏好H-1B员工的领域集中于技术岗位,将其延伸至HR岗位"不合逻辑"。
案件背景:一封邮件,引发一场联邦诉讼
2026年2月23日,美国加利福尼亚州北区联邦地区法院法官 Vince Chhabria 作出裁定,拒绝驳回工程师 Scott Taub 对特斯拉(Tesla, Inc.)提起的集体诉讼核心指控。这一裁定意味着,指控特斯拉在招聘中系统性偏袒H-1B签证持有人、歧视美国公民的诉讼,将正式进入下一阶段的司法审查程序。
事情的起源,是一封再普通不过的招聘邮件。
Taub 收到了第三方招聘公司 Max Eleven 联系人 Mr. Sainik 发来的职位邀约,职位为特斯拉的 QA Automation Engineer(质量自动化工程师)。邮件内容写明,该职位为"H1B only"——仅限持H-1B工作签证的候选人申请,并要求提供"Travel history / i94"(入境记录与入境卡信息)。作为美国公民的 Taub,看到这行字后放弃了申请。随后,他以就业歧视为由,将特斯拉告上了联邦法院,并寻求集体诉讼资格。
案件基本信息:案件名称 Taub et al v. Tesla, Inc.,案件编号 3:25-cv-07785,法院为美国加利福尼亚州北区联邦地区法院,主审法官 Vince Chhabria,裁定日期2026年2月23日。原告一 Scott Taub(工程师,指控维持),原告二 Sofia Brander(HR高管,指控驳回),被告 Tesla, Inc.,涉事第三方招聘公司 Max Eleven。
法官裁定:证据"单薄",但足以维持诉讼
在裁定书中,Chhabria 法官坦承这是一个"close question"(近乎临界的问题),措辞罕见地透露出司法审慎。他的核心逻辑是:在诉讼初期审查阶段,所有推断必须有利于原告。
法官在裁定中写道:"The plaintiffs have pled just enough facts to allege that Tesla discriminated against US citizens."(原告已陈述了足够的事实,以主张特斯拉歧视美国公民。)
法官同时指出,可以合理推断,当 Max Eleven 告知 Taub 该职位"H-1B only"时,是在转达特斯拉的招聘偏好,而非招聘公司的自发筛选行为。
他同时对证据质量表达了保留态度,指出邮件的原始上下文存在模糊性:Taub 提问的原文未附在诉状中,邮件格式也难以判断是否为回复邮件。法官在裁定书中写道:"All of this causes the court to be somewhat skeptical of Taub's allegations. But because all inferences must be drawn in Taub's favor at this stage, the Max Eleven email and the allegations related to it are sufficient to state a claim for discrimination."
两位原告,两种结局——HR高管为何被驳回?
本案有两位原告,但结局截然不同。工程师 Taub 的指控得以维持,HR高管 Sofia Brander 的指控则被法官完全驳回。
Brander 同样主张,自己因美国公民身份被特斯拉歧视性地排除在求职机会之外。然而,法官认为此论据存在根本性的逻辑漏洞。裁定书中写道:"The complaint alleges that Tesla uses H-1B workers for 'specialized roles in engineering, research, and design,' so it wouldn't make sense for Tesla to favor H-1B workers for HR roles."
换言之,法院认为特斯拉对H-1B工人的依赖主要集中于工程、研发等高技术性岗位,将这一逻辑延伸至HR职位不合情理。因此,Brander 被认定缺乏充分的指控基础。
值得注意的是,法院给予 Brander 14天时间修订诉状,决定是否继续追诉。其指控并非永久关闭,若能提供更充分的事实依据,仍有机会重新进入诉讼程序。
起诉书中的更多细节:数字背后的系统性指控
仅靠一封邮件,能撑起一场集体诉讼吗?起诉书中的指控远不止于此。根据公开的起诉书原文(案件提交于2025年9月),原告援引了一系列数据,试图证明特斯拉的H-1B偏好并非个案,而是系统性的招聘政策:
特斯拉在2024年聘用了约1,355名H-1B签证持有人,同期却裁员逾6,000名美国本土员工,其中绝大多数为美国公民。
特斯拉通过 Max Eleven、West Valley Staffing、ManPower、Balance Staffing、Nelson Staffing 等多家第三方人力外包公司大量引进H-1B工人,而这部分招聘名额未必计入官方H-1B申报数据,属于监管盲区。
招聘公司 Max Eleven 的联系人 Mr. Sainik 在邮件中不仅注明"H1B only",还同时要求候选人提供"Travel history / i94"——这是典型的签证状态筛选操作。
特斯拉方面在法庭文件中将上述指控称为"preposterous"(荒谬绝伦),否认存在任何系统性歧视。
法官 Chhabria 对这些系统性指控态度相对冷淡,明确表示所有指控中只有关于招聘公司邮件的部分具有价值,大量统计数据本身不构成歧视的直接证据。但这些数字仍将在后续诉讼中发挥重要作用,为原告构建系统性歧视模式(pattern and practice)的主张提供支撑。
北美HR从业者合规警示:你的风险在哪里?
对于在美国企业从事HR工作的专业人士,这起案件并非遥远的法律事件,而是直接关乎日常操作规范的行业警钟。
风险一:第三方招聘公司的沟通内容,同样是你的法律责任
本案最具颠覆性的法律逻辑在于:法官明确表示,可以合理推断招聘公司是在转达特斯拉的偏好,而非自行决策。这意味着,即便是你委托的外部猎头或人力外包公司,其发给候选人邮件中的一句话,也可能成为你公司的诉讼依据。
合规建议:立即审查所有外部招聘合作协议,加入明确条款,禁止合作方在任何沟通材料中出现签证状态相关的候选人筛选表述,并要求合作方定期报告招聘沟通样本。
风险二:"H-1B only"是高风险表述,即便是口头传达
在美国就业歧视的法律框架下,以国籍(national origin)或公民/签证身份(citizenship / immigration status)为由限制求职机会,在特定情境下可能违反《移民与国籍法》第274B条款(INA § 274B),该条款明确禁止因公民身份而产生的就业歧视。即便是通过招聘公司间接传达的偏好,都可能被视为企业招聘政策的延伸。
风险三:岗位描述和签证状态挂钩,属于高风险操作
将特定职位与特定签证类型绑定,不论是在职位描述、招聘简报还是内部备忘录中,均可能成为歧视意图的直接证据。HR团队在与招聘方沟通岗位需求时,应严格区分"工作授权要求"(work authorization requirement)与"签证类型偏好"(visa type preference)。前者在某些涉密岗位中有法律依据,后者几乎没有任何合法保护空间。
建议立即采取的合规行动:
审计所有与外部招聘机构的合作协议,确保包含明确的反歧视条款,尤其是禁止签证状态相关筛选的条款。要求外部招聘合作方提交标准化的候选人沟通模板,由内部法务或HR合规团队审核。对内部招聘团队进行合规培训,明确区分"工作授权状态"(可合法询问)与"签证类型偏好"(通常不可操作)的边界。建立招聘合规举报机制,鼓励员工在发现类似问题时安全报告。如企业使用多家人力外包公司,需逐一审查其操作规范,不能仅依靠合同条款而忽视实际执行层面的风险。
更大的背景:H-1B政策收紧与合规新常态
这起诉讼并非孤立事件。它发生在美国政治与政策环境对H-1B签证高度敏感的时间节点上。近年来,围绕H-1B制度的争议持续发酵,"美国工人优先"的政策叙事贯穿两党议题。在这一背景下,企业的H-1B招聘实践正面临来自多个方向的审查压力——不仅是政府监管层面,也包括来自员工、竞争对手和公众舆论的多重目光。
值得注意的是,本案的指控人并非政府监管机构,而是个人求职者。这意味着就业歧视的法律风险并不仅来自劳工部、移民局等监管部门的执法,也可能来自任何一位曾在招聘过程中感受到不公平对待的候选人。
对于在美国运营、并大量依赖H-1B人才管道的企业,这起案件传递出清晰的信号:招聘合规必须从政策层面下沉到操作层面,从内部规范延伸到外部合作伙伴的沟通细节。一封来自第三方招聘公司的邮件,足以成为联邦集体诉讼的起点。
案件后续进展
特斯拉目前尚未就此案公开发表评论。Sofia Brander 获14天时间决定是否修订诉状。Scott Taub 的指控将进入实质性诉讼审查阶段,双方需就证据开示(discovery)展开程序。HR Tech 将持续追踪本案进展,为北美HR从业者带来第一手合规资讯。
本文仅供专业参考,不构成法律意见。如需法律咨询,请联系持牌劳动法律师。
1. 原始起诉书(Complaint)全文 PDF 这是2025年9月12日提交的诉状,已公开: ? https://casefilingsalert.com/wp-content/uploads/2025/09/Tesla-Suit-re-H-1B-Visas.pdf
美国公民自由联盟对Aon人工智能招聘工具发起投诉美国公民自由联盟(ACLU)于2024年6月6日向美国联邦贸易委员会提交了针对Aon的投诉,挑战其候选人评估工具的合法性和偏见问题。ACLU指控Aon的评估工具,如Adept-15人格测试和vidAssess-AI视频评估工具,在市场上虚假宣称“无偏见”并能“增进多样性”,实际上这些工具可能基于种族和残疾(如自闭症和心理健康障碍)歧视求职者。此外,ACLU还提到,Aon的gridChallenge认知能力评估也显示出种族表现上的差异。针对这些指控,Aon回应称其评估工具遵循行业最佳实践和EEOC、法律及专业指导原则。ACLU此举揭示了在职场包容性与合规性之间的紧张关系,呼吁更严格审查这些广泛使用的人力资源技术工具。
在人力资源技术迅速发展的世界中,人工智能(AI)扮演着关键角色,承诺将简化流程并增强招聘实践的效率。然而,AI整合到这些实践中经常引发关于公平性和歧视的重大争议。最近的一个例子涉及到全球专业服务公司Aon,该公司的AI驱动的招聘评估工具因美国公民自由联盟(ACLU)的指控而受到审查。ACLU向美国联邦贸易委员会(FTC)正式投诉Aon,突显了关于AI在招聘中应用的重要对话。
ACLU投诉的基础
ACLU指控Aon欺骗性地营销其招聘评估工具——特别是Adept-15性格评估、vidAssess-AI视频面试工具和gridChallenge认知能力测试——这些工具被宣称为无偏见并有助于提高工作场所的多样性。根据ACLU的说法,这些声明不仅具有误导性,而且可能违法,因为这些工具可能会基于种族和残疾(如自闭症、抑郁症和焦虑症)歧视求职者。这些工具使用算法和AI进行评估,根据候选人的积极性、情感意识和活力等特征进行评估,这些特征往往与工作表现无直接关联,且可能对某些残疾人群产生不成比例的影响。
Aon的辩护和行业实践
面对ACLU的指控,Aon为其产品辩护,声称这些工具是根据法律和专业指南(包括平等就业机会委员会EEOC设定的指南)设计的。Aon强调他们的工具是雇主用于做出更具包容性招聘决策的更广泛评估工具集的一部分。此外,Aon还指出其工具的效率和成本效益,认为这些工具比传统方法更少歧视性。
法律和道德含义
这场争议引发了关于使用AI进行就业的重要法律和道德问题。美国的法律,包括美国残疾人法案(ADA)和民权法案第七章,要求就业中的非歧视实践,涵盖从招聘到工作场所的所有方面。ACLU向FTC的投诉不仅提示可能违反这些法律,还将问题框定为不仅是就业歧视,还涉及消费者欺诈的问题。
更广泛的行业关注
ACLU对Aon的行动是更广泛运动的一部分,旨在审查用于招聘的AI工具。批评者认为,虽然这些技术提供了无偏见决策的潜力,但它们常常缺乏透明度,并可能无意中编码了其开发者或它们所训练的数据集的偏见。这一问题由于这些工具的专有性质而变得更加复杂,这阻碍了对它们的公平性和效率进行彻底的公众评估。
潜在后果和改革
ACLU对Aon的投诸可能对人力资源技术行业产生深远影响。如果FTC决定调查或制裁Aon,可能会导致对AI在招聘中的使用进行更严格的监管,可能为整个行业中类似工具的市场营销和实施设定先例。对依赖这些工具的公司而言,此案可能是重新评估其算法以确保符合反歧视法律的关键提示。
此外,此案凸显了技术专家、法律专家、政策制定者和民权倡导者之间需要进行持续对话的需求,以确保AI的进步能够增强而非破坏工作场所的平等。随着AI继续渗透到各种人力资源方面,制定维护反歧视和坚持道德原则的标准和最佳实践将至关重要。
结论
ACLU对Aon的投诉提醒我们在AI时代,创新、监管和权利之间的复杂相互作用。虽然AI为HR提供了变革的潜力,但它也需要谨慎处理以防止新形式的歧视。这个案例可能会成为AI在招聘伦理辩论中的一个里程碑,促使所有利益相关者考虑其技术选择的更广泛影响。随着法律程序的展开,人力资源技术行业将密切关注,意识到AI在招聘中的未来现在受到更审慎的公众和法律审视。
Unveiling Bias: The Controversy Over Aon's AI Hiring Tools and the ACLU's Challenge
In the rapidly evolving world of human resources technology, artificial intelligence (AI) plays a pivotal role, promising to streamline processes and enhance the efficiency of hiring practices. However, the integration of AI into these practices often sparks significant debate regarding fairness and discrimination. A recent example of this controversy involves Aon, a global professional services firm, whose AI-driven hiring assessment tools have come under scrutiny by the American Civil Liberties Union (ACLU). The ACLU's allegations against Aon, leading to a formal complaint to the U.S. Federal Trade Commission (FTC), underline a critical dialogue about the implications of AI in hiring.
The Basis of the ACLU’s Complaint
The ACLU has accused Aon of deceptively marketing its hiring assessment tools — specifically the Adept-15 personality assessment, the vidAssess-AI video interviewing tool, and the gridChallenge cognitive ability test — as bias-free and conducive to improving diversity in the workplace. According to the ACLU, these claims are not only misleading but also potentially unlawful, as the tools may perpetuate discrimination against job seekers based on race and disabilities such as autism, depression, and anxiety. These tools, which utilize algorithmic processes and AI, are said to evaluate candidates on traits like positivity, emotional awareness, and liveliness, which are often not directly relevant to job performance and may disproportionately affect individuals with certain disabilities.
Aon’s Defense and Industry Practices
In response to the ACLU's claims, Aon has defended its products by asserting that they are designed in compliance with legal and professional guidelines, including those set forth by the Equal Employment Opportunity Commission (EEOC). Aon emphasizes that their tools are part of a broader array of assessments used by employers to make more inclusive hiring decisions. Moreover, Aon points to the efficiency and cost-effectiveness of their tools, arguing that they are less discriminatory than traditional methods.
Legal and Ethical Implications
The controversy raises significant legal and ethical questions about the use of AI in employment. U.S. laws, including the Americans with Disabilities Act (ADA) and Title VII of the Civil Rights Act, mandate non-discriminatory practices in employment, covering all aspects from hiring to workplace accommodation. The ACLU's complaint to the FTC, an agency tasked with protecting America’s consumers and competition, suggests potential violations of these laws, framing the issue not only as one of employment discrimination but also of consumer deception.
Broader Industry Concerns
The ACLU's actions against Aon are part of a larger movement to scrutinize AI tools used for hiring. Critics argue that while these technologies offer the potential for unbiased decision-making, they often lack transparency and can inadvertently encode the biases of their developers or the data sets they are trained on. This issue is compounded by the proprietary nature of these tools, which prevents a thorough public assessment of their fairness and effectiveness.
Potential Repercussions and Reforms
The outcome of the ACLU’s complaint could have far-reaching implications for the HR technology industry. A decision by the FTC to investigate or sanction Aon could lead to more stringent regulations governing the development and use of AI in hiring, potentially setting a precedent for how similar tools are marketed and implemented across the industry. For companies that rely on these tools, the case may serve as a critical prompt to reevaluate their algorithms to ensure compliance with anti-discrimination laws.
Moreover, this case highlights the need for ongoing dialogue between technologists, legal experts, policymakers, and civil rights advocates to ensure that advancements in AI serve to enhance, rather than undermine, workplace equality. As AI continues to permeate various aspects of human resources, the development of standards and best practices that safeguard against discrimination and uphold ethical principles will be crucial.
Conclusion
The ACLU's complaint against Aon is a reminder of the complex interplay between innovation, regulation, and rights in the age of AI. While AI offers transformative potentials for HR, it also demands a cautious approach to prevent new forms of discrimination. This case may well become a landmark in the ongoing debate over AI ethics in hiring, urging all stakeholders to consider the broader implications of their technological choices. As the legal proceedings unfold, the HR technology industry will be watching closely, aware that the future of AI in hiring is now under a more discerning public and legal microscope.