Những công cụ AI trao cho các doanh nghiệp “quyền lực” chưa từng có để theo đuổi các quyết định đầu tư nhân lực dựa trên dữ liệu xây dựng được. Chúng cũng có khả năng dân chủ hóa những nhận xét, cung cấp cho hàng triệu ứng viên những dữ liệu hữu ích về thế mạnh, nhu cầu phát triển, tiềm năng nghề nghiệp và công ty phù hợp.
Cụ thể, trong các đánh giá gần đây, có một sự tăng trưởng nhanh chóng (và sự đầu tư vốn mạo hiểm tương ứng) trong các đánh giá tự động, sử dụng bot để quét các bài đăng trên phương tiện truyền thông xã hội, phân tích ngôn ngữ của các mẫu CV của ứng viên và sử dụng thuật toán trong các buổi phỏng vấn video, để phân tích nội dung lời nói, giọng điệu, trạng thái cảm xúc, hành vi phi ngôn ngữ và những tiết lộ về tính cách của ứng viên.
Trong khi các công cụ mới này đang phá vỡ môi trường tuyển dụng và cách đánh giá ứng viên, vẫn còn nhiều câu hỏi chưa được trả lời xung quanh tính chính xác của chúng, và cả ý nghĩa đạo đức, pháp lý và quyền riêng tư mà các công cụ này cung cấp. Điều này đặc biệt đúng khi so sánh với các đánh giá tâm lý học lâu đời hơn như NEO-PI-R, Thử nghiệm Wonderlic, Thử nghiệm ma trận tiến bộ của Raven, hay Kiểm tra nhân cách học Hogan, những đánh giá truyền thống này đã được xác nhận về tính khoa học, xác định được mối liên hệ đáng tin cậy giữa điểm số của ứng viên nhận được và hiệu suất công việc sau này họ tạo ra (theo kết quả công bố từ các tạp chí học thuật uy tín). Gần đây, Thượng viện Hoa Kỳ thể hiện mối quan tâm và lo ngại sâu sắc về việc liệu các công nghệ mới (cụ thể là công nghệ phân tích khuôn mặt) có thể có ý nghĩa tiêu cực đối với vấn đề bình đẳng giữa các ứng cử viên.
Bài viết này tập trung vào những tác động tiềm tàng của công nghệ mới đối với quyền riêng tư của các ứng cử viên. Nhà tuyển dụng nhận ra rằng họ không thể hoặc không nên hỏi ứng viên về tình trạng gia đình hoặc định hướng chính trị của họ, hoặc liệu họ có thai, họ có phải là “thẳng” hay đồng tính, cảm xúc của họ là buồn hay cô đơn, trầm cảm, thể chất hoặc tinh thần như thế nào, họ có nghiện rượu, lạm dụng thuốc, hoặc ngủ quá ít trong ngày. Tuy nhiên, các công nghệ mới có thể đã có thể nhận ra nhiều yếu tố trên một cách gián tiếp và không có sự đồng ý từ phía ứng viên.
Trước khi đi sâu vào những cách đánh giá ứng viên mới cho công việc, hãy thử xem lại cách chúng ta thường làm trước đây. Chẳng hạn, quân đội Hoa Kỳ thường sử dụng đánh giá tâm lý học trong hơn 100 năm qua, và áp dụng rộng rãi ở các nơi tuyển dụng cho các vị trí, nhằm xác định khả năng thành công của ứng viên trong các vai trò khác nhau. Theo truyền thống, tâm lý học được chia thành ba loại chính: khả năng nhận thức hoặc trí thông minh, tính cách hoặc khí chất, và sức khỏe tâm lý hoặc chẩn đoán lâm sàng.
Kể từ khi Đạo luật Người khuyết tật Hoa Kỳ (ADA) được thông qua năm 1990, các nhà tuyển dụng thường bị cấm tìm hiểu về những khuyết tật thể chất, sức khỏe tâm lý hoặc chẩn đoán lâm sàng. Đây không còn được xem như một yếu tố trong việc đánh giá ứng viên trước khi đi làm. Về bản chất, khuyết tật – dù là về thể chất hay tinh thần – đã được xem là thông tin riêng tư của người ứng tuyển, giống như việc nhà tuyển dụng không nên hỏi người nộp đơn về cuộc sống riêng tư của họ và không thể giữ kín thông tin nhân khẩu học của họ khi ra quyết định tuyển dụng.
Khả năng nhận thức và kiểm tra trí thông minh được xem là một cách đánh giá đáng tin cậy và hợp lệ cho sự thành công tương lai của ứng viên trong công việc. Tuy nhiên, các loại đánh giá này có thể tạo ra sự phân biệt đối xử nếu chúng tác động tiêu cực đến các nhóm được xác định bởi giới tính, chủng tộc, tuổi tác hoặc nguồn gốc quốc gia. Nếu nhà tuyển dụng đang sử dụng một hình thức đánh giá có tác động bất lợi như vậy, họ phải chứng minh rằng phương pháp đánh giá này có liên quan mật thiết đến công việc và dự đoán được khả năng thành công của ứng viên trong tương lai. Đánh giá tính cách thường không khiến nhà tuyển dụng phải chịu trách nhiệm trong việc phân biệt đối xử, vì có rất ít hoặc không có mối tương quan giữa các đặc điểm tính cách và các nhóm ứng viên bị phân biệt.
Hiện nay, có khá nhiều công cụ AI mới nổi lên trong thị trường tuyển dụng nhưng lại không được chứng minh bằng các phương pháp hoặc chương trình nghiên cứu có nguồn gốc khoa học. Kết quả là, không phải lúc nào những gì chúng đánh giá cũng rõ ràng, hoặc liệu các giả thuyết cơ bản của chúng có hợp lệ hay không, hoặc tại sao chúng có thể dự đoán được hiệu suất của ứng viên. Tương tự như vậy, hoạt động truyền thông xã hội – ví dụ, sử dụng Facebook hoặc Twitter – đã được xem là một cách để phản ánh được sự thông minh và tính cách của ứng viên, bao gồm cả những mặt tối của họ. Nhưng việc khai thác dữ liệu này cho mục đích tuyển dụng có hợp lý không khi người dùng thường sử dụng các ứng dụng đó cho các mục đích khác nhau và có thể việc đưa ra phân tích những bài đăng công khai này của họ trên mạng xã hội có vi phạm quyền riêng tư hay không?
1. Các công ty sẽ gặp phải những “cám dỗ” nào có liên quan đến quyền riêng tư của ứng viên?
Khi công nghệ tiến bộ hơn, việc sử dụng Big Data và AI có thể tiếp tục xác định các thuộc tính cá nhân, đào sâu sự riêng tư với độ chính xác ngày càng cao. Ngày nay, chẳng hạn như lượt thích của một cá nhân trên Facebook cũng có thể được dùng để đánh giá xu hướng tình dục và chủng tộc với độ chính xác cao đáng kể. Bên cạnh đó, xu hướng chính trị và niềm tin tôn giáo cũng là hai yếu tố dễ dàng xác định. Các công ty có thể bị cám dỗ để sử dụng các công cụ như thế này cho việc sàng lọc các ứng cử viên, bởi họ tin rằng những gì họ đang làm hoàn toàn hợp pháp. Mặc dù nhà tuyển dụng không vi phạm bất kỳ điều luật nào khi chỉ làm rõ thông tin cá nhân của ứng viên, thế nhưng công ty có thể dễ dàng bị “dính dáng” về mặt pháp lý nếu họ đưa ra quyết định tuyển dụng bất lợi cho ứng viên phụ thuộc vào nơi sinh, chủng tộc hoặc ngôn ngữ bản địa – hoặc dựa trên thông tin cá nhân mà họ không có quyền xem xét, chẳng hạn như bệnh thể chất hoặc bệnh tâm lý. Làm thế nào để các tòa án xử lý những tình huống này bởi chúng được thực hiện một cách không rõ ràng? Tuy nhiên, sự thật là các hành động trên, dù ít hay nhiều vẫn được xem là xâm phạm quyền riêng tư nhất định.
Điều này cũng có thể áp dụng cho phần mềm nhận dạng khuôn mặt, vì nghiên cứu gần đây dự đoán rằng AI dựa trên cách nhận diện này, có thể phát hiện được định hướng tình dục và chính trị cũng như tâm trạng hoặc cảm xúc của ứng viên với độ chính xác cao. Điều gì sẽ xảy ra nếu những loại thông tin về sự thật, dối trá hoặc thuộc tính di truyền cũng có thể được xác định bởi các công cụ hay công nghệ nêu trên?
2. Công ty sẽ gặp phải những “cám dỗ” nào liên quan đến lối sống của ứng viên?
Hiện tại, các nhà tuyển dụng có thể truy cập thông tin trực tuyến để xem liệu họ có đi nhà thờ vào mỗi sáng Chủ Nhật, liệu họ có chăm sóc cha mẹ của mình hay họ đã đệ đơn ly hôn lên tòa lần thứ mấy trong cuộc đời. Tất cả những điều này, và nhiều hơn nữa, có thể dễ dàng khám phá trong kỷ nguyên kỹ thuật số. Big Data đang theo dõi chúng ta ở mọi nơi. Và theo các chuyên gia, 90% dữ liệu trên thế giới được tạo ra chỉ trong vòng hai năm qua. Việc mở rộng dữ liệu có thể vô tình tạo ra cơ hội tiềm tàng cho những cách sử dụng chúng sai trái hoặc tạo ra sự phân biệt đối xử trong tuyển dụng.
Điều đáng nói là ít nhất cho đến hiện tại, quyền riêng tư của nhân viên trong thời đại Big Data vẫn chưa được giải quyết. Điều này đặt nhà tuyển dụng vào một vị trí thận trọng hơn: Công nghệ tiên tiến có thể cực kỳ hữu ích nhưng nó cũng cung cấp cho họ thông tin được coi là riêng tư. Liệu việc sử dụng nó có hợp pháp trong bối cảnh tuyển dụng? Và việc xem xét những thông tin này khi chưa được sự đồng ý của ứng viên có được xem là hợp đạo đức?
3. Công ty sẽ gặp phải “cám dỗ” nào liên quan đến vấn đề nhân chủng học của ứng viên?
Ngoài việc đưa ra các câu hỏi mới để xác định vấn đề khuyết tật của ứng viên, công nghệ cũng đưa ra những vấn đề nan giải mới liên quan đến sự khác biệt, cho dù là nhân khẩu học hay vấn đề khác. Đã có những tình huống thực tế bộc lộ những thành kiến được xem là liên quan đến vấn đề chủng tộc và giới tính. Chẳng hạn như Amazon đã phát triển một chương trình tìm kiếm tài năng tự động để xem xét sơ yếu lý lịch – nhưng sớm loại bỏ nó khi họ phát hiện ra rằng chương trình này không xếp hạng các ứng cử viên theo đánh giá trung lập về giới tính. Để giảm bớt sự thiên vị như vậy, các nhà phát triển đang cân bằng dữ liệu được sử dụng để xây dựng các mô hình AI, sao cho cân đối giữa tất cả các yếu tố xác định ứng viên. Càng nhiều thông tin mà công nghệ có được, nó càng có thể kiểm soát tốt hơn vấn đề thiên vị trong tương lai.
Tóm lại, các công nghệ mới đã có thể vượt qua ranh giới giữa những thông tin công cộng và riêng tư. Khi sử dụng AI, Big Data, hay phương tiện truyền thông xã hội, nhà tuyển dụng sẽ có quyền truy cập ngày rộng hơn vào thông tin của các ứng cử viên. Dù cho không có một câu trả lời dễ dàng về vấn đề xâm phạm quyền riêng tư bài viết nêu ra, nhưng vấn đề này vẫn đáng để được tìm hiểu và thảo luận trong thời đại công nghệ ngày nay.
— HR Insider / Theo Harvard Business Review —
VietnamWorks – Website tuyển dụng trực tuyến số 1 Việt Nam
Bài viết dành riêng cho thành viên của HR Insider.