Đây là bước ngoặt quan trọng, khi công nghệ không chỉ thay đổi cách doanh nghiệp quản lý con người, mà còn buộc chúng ta phải đặt lại câu hỏi: liệu con người còn được nhìn thấy như một cá thể, hay chỉ là một dòng dữ liệu?
Thế nhưng, một khi cỗ máy được huấn luyện bằng dữ liệu của con người, nó cũng học luôn cả những định kiến, giới hạn và sai lầm rất… người. Thuật toán có thể mô phỏng cảm xúc, nhưng không thể hiểu được hoàn cảnh.
Nó có thể đo được hiệu suất, nhưng khó nhận ra nỗ lực thầm lặng. Và chính ở ranh giới mờ giữa “hiệu quả” và “đạo đức”, giữa “quyết định nhanh” và “quyết định đúng”, những câu hỏi lớn nhất về trách nhiệm, công bằng và nhân tính bắt đầu xuất hiện.
Tại HR Day 2025, bà Trần Vũ Hà Minh - Founder & CEO Humane-AI Asia - đã chỉ ra năm nhóm rủi ro đạo đức nổi bật trong hành trình ứng dụng AI vào quản trị nhân sự. Năm vấn đề này không chỉ là cảnh báo, mà là bản đồ để doanh nghiệp tự soi chiếu trên con đường chuyển đổi số:
- Thiên kiến và công bằng, khi thuật toán vô tình học lại định kiến xã hội.
- Bảo mật, khi dữ liệu nhân sự trở thành mục tiêu tấn công.
- Quyền riêng tư, khi khuôn mặt và thông tin cá nhân bị dùng làm dữ liệu huấn luyện.
- Lạm dụng công nghệ, khi AI khiến con người ngừng tư duy phản biện.
- Trách nhiệm giải trình, khi hệ thống sai lệch nhưng không rõ ai chịu trách nhiệm.
Những câu chuyện tưởng chừng xa vời này đã và đang diễn ra trong nhiều tổ chức toàn cầu và dần định hình lại cách HR nhìn nhận “đạo đức” trong chuyển đổi số.

Bà Trần Vũ Hà Minh - Founder & CEO Humane-AI Asia - chia sẻ tại HR Day 2025.
1. Thiên kiến và công bằng - Khi thuật toán học lại định kiến xã hội
Trong môi trường tuyển dụng, AI có thể vô tình tái tạo lại những định kiến vốn tồn tại trong xã hội nếu dữ liệu huấn luyện thiếu đa dạng. Khi mô hình được đào tạo từ những nguồn dữ liệu không cân bằng, phản ánh quá khứ nhiều hơn là hiện tại, các quyết định mà nó đưa ra sẽ mang theo dấu vết của lịch sử, thay vì phản ánh thực tế công bằng của ngày nay.
Một ví dụ điển hình là một hệ thống từng đánh giá ứng viên nam cao hơn nữ cho cùng một vị trí kỹ sư, chỉ vì dữ liệu lịch sử cho thấy phần lớn người được tuyển trước đó là nam giới. Với máy, đó chỉ là xác suất; nhưng với con người, đó là định kiến được mã hóa thành quy tắc vận hành mà không ai nhận ra.
Điều nguy hiểm là sự sai lệch này không hiển hiện rõ ràng. Nó không đến từ lỗi kỹ thuật, mà đến từ thiên kiến ngầm ẩn sâu trong dữ liệu và thuật toán, nơi máy học lại cách con người nhìn thế giới, bao gồm cả những giới hạn và thành kiến vô thức của chúng ta.
Khi đó, những con số tưởng như khách quan lại có thể khiến cả quy trình tuyển chọn trở nên thiếu công bằng, khi “hiệu quả” được đánh đổi bằng sự đa dạng và bình đẳng.
Bởi vậy, công bằng không tự nhiên mà có trong công nghệ. Nó phải được con người chủ động kiến tạo, từ việc lựa chọn dữ liệu huấn luyện, thiết kế mô hình, đến quy trình kiểm định kết quả, với tinh thần minh bạch, phản biện và nhân văn.
Chỉ khi công nghệ được lập trình bằng nhận thức, chứ không chỉ bằng logic, chúng ta mới có thể đảm bảo rằng AI không nhân bản lại những sai lệch của quá khứ, mà góp phần định hình một tương lai công bằng hơn cho mọi người.

Công nghệ đang là một trong những vấn đề được quan tâm hàng đầu của các tổ chức thúc đẩy sự chuyển đổi kinh doanh (Ảnh: HR Day 2025).
2. Bảo mật - Khi chatbot tuyển dụng làm lộ hàng triệu dữ liệu ứng viên
Năm 2025, McDonald’s hợp tác với Paradox.ai ra mắt chatbot “McHire” - hệ thống tuyển dụng tự động quy mô toàn cầu, được kỳ vọng sẽ giúp doanh nghiệp xử lý hàng triệu hồ sơ ứng viên nhanh chóng và hiệu quả hơn.
Đây từng được xem là bước tiến lớn trong việc áp dụng AI vào nhân sự, nơi công nghệ đảm nhận các tác vụ lặp lại để con người tập trung hơn vào yếu tố chiến lược. Thế nhưng, chỉ vì một mật khẩu mặc định yếu, toàn bộ dữ liệu cá nhân của hơn 64 triệu người đã bị rò rỉ, bao gồm tên, địa chỉ, thông tin liên hệ và lịch sử làm việc.
Một sự cố tưởng như kỹ thuật lại trở thành khủng hoảng niềm tin, phơi bày điểm yếu chí mạng của chuyển đổi số: Khi một lỗ hổng nhỏ có thể kéo theo hệ lụy khổng lồ.
Vụ việc này cho thấy rủi ro của công nghệ không nằm ở những thuật toán phức tạp, mà đôi khi nằm ở những chi tiết tưởng chừng vô hại, một bước xác thực bị bỏ qua, một quy trình bảo mật chưa đủ chặt chẽ. Khi đó, chính những công cụ được tạo ra để bảo vệ và tối ưu cho con người lại trở thành nguyên nhân khiến con người bị tổn thương.
Trong thời đại AI, dữ liệu nhân sự đã trở thành một dạng “vàng mềm”, vừa quý giá, vừa mong manh. Nó là nền tảng cho mọi quyết định chiến lược, nhưng cũng là điểm yếu dễ bị khai thác nhất nếu thiếu cơ chế bảo vệ. Và một khi niềm tin bị đánh mất, doanh nghiệp sẽ phải trả giá không chỉ bằng thiệt hại tài chính, mà còn bằng uy tín thương hiệu và tinh thần của chính nhân viên mình.
Vì vậy, bảo mật dữ liệu không còn là nhiệm vụ của riêng phòng kỹ thuật, mà là chuẩn mực đạo đức căn bản trong thời đại tự động hóa. Giống như việc bảo vệ con người chính là bảo vệ tổ chức, bảo vệ dữ liệu cũng chính là giữ gìn niềm tin, tài sản vô hình quý giá nhất mà công nghệ không thể tái tạo nếu đã đánh mất.

Chatbot “McHire” được kỳ vọng sẽ giúp doanh nghiệp xử lý hàng triệu hồ sơ ứng viên nhanh chóng và hiệu quả hơn, nhưng rủi ro về bảo mật thông tin đã tác động tiêu cực đến hình ảnh của thương hiệu (Ảnh: Sưu tầm).
3. Quyền riêng tư - Khi khuôn mặt trở thành dữ liệu huấn luyện
Clearview AI từng thu thập hàng tỷ hình ảnh khuôn mặt từ mạng xã hội để huấn luyện hệ thống nhận dạng mà không có sự đồng ý của người dùng. Những bức ảnh vốn thuộc về đời sống riêng tư bỗng bị biến thành nguồn dữ liệu công khai, để máy móc học cách phân tích, nhận diện và dự đoán hành vi.
Khi ranh giới giữa “dữ liệu công cộng” và “dữ liệu cá nhân” bị xóa nhòa, điều bị đe dọa không chỉ là quyền riêng tư, mà còn là quyền được là chính mình trong thế giới số. Nếu công nghệ này được áp dụng một cách thiếu kiểm soát trong môi trường làm việc, quyền riêng tư của nhân viên sẽ khó có thể được đảm bảo.
Khi khuôn mặt, giọng nói, cử chỉ hay thậm chí cảm xúc đều có thể bị ghi lại và lưu trữ vĩnh viễn, ranh giới giữa “quản trị nhân sự” và “giám sát con người” trở nên mong manh hơn bao giờ hết. Ở đó, công nghệ không chỉ đo năng suất, mà còn có nguy cơ định hình hành vi, khiến con người làm việc trong tâm thế bị quan sát nhiều hơn là được tin tưởng.
Trong bối cảnh các khung pháp lý về AI vẫn còn đang hoàn thiện, phòng nhân sự (HR) chính là người cần đặt ra giới hạn cho doanh nghiệp. Họ phải xác định đâu là mức độ giám sát cần thiết để bảo đảm an toàn, và đâu là ranh giới của việc xâm phạm quyền riêng tư cá nhân.
Ở vị trí trung gian giữa con người và công nghệ, HR không chỉ quản lý dữ liệu, mà còn bảo vệ phẩm giá của con người, thứ mà không một thuật toán nào được phép xâm phạm. Bởi đôi khi, sự phát triển của công nghệ không đáng sợ bằng cách con người sử dụng nó mà quên mất nguyên tắc tôn trọng nhau.
Trong một thế giới nơi mọi dữ liệu đều có thể bị thu thập, tôn trọng trở thành lớp bảo mật cuối cùng của nhân loại, thứ không thể mã hóa, nhưng có thể mất đi nếu chúng ta không gìn giữ.

Clearview AI từng thu thập hàng tỷ hình ảnh khuôn mặt từ mạng xã hội để huấn luyện hệ thống nhận dạng mà không có sự đồng ý của người dùng (Ảnh: Sưu tầm).
4. Lạm dụng công nghệ AI - Khi con người ngừng tư duy vì ChatGPT
Tháng 7/2025, hệ thống AI hỗ trợ lập trình của Replit đã vô tình xóa nhầm toàn bộ dữ liệu sản xuất của công ty SaaStr, gây thiệt hại hơn 500.000 USD và khiến doanh nghiệp mất 15% nhân sự chỉ trong quý tiếp theo.
Sự cố này không chỉ là một lỗi kỹ thuật, mà là lời cảnh báo về việc trao quyền quá mức cho máy móc trong những quyết định vốn cần có con người kiểm tra cuối cùng. AI có thể tính toán nhanh hơn, ghi nhớ tốt hơn và xử lý khối lượng công việc khổng lồ, nhưng điều nó không có là khả năng đánh giá bối cảnh, cảm nhận rủi ro và hiểu được hậu quả của sai lầm.
Một thuật toán có thể nhận diện lỗi, nhưng không thể hiểu được giá trị của một con người bị ảnh hưởng phía sau dữ liệu đó. Và khi doanh nghiệp đặt niềm tin tuyệt đối vào hệ thống, loại bỏ dần vai trò giám sát của con người, ranh giới giữa “tự động hóa” và “mất kiểm soát” trở nên mong manh hơn bao giờ hết.
Một quy trình dù thông minh đến đâu cũng cần một mắt xích cuối cùng, con người có quyền dừng lại, xem xét và chịu trách nhiệm. Không phải để nghi ngờ công nghệ, mà để đảm bảo rằng AI luôn vận hành trong giới hạn an toàn do con người đặt ra. Bởi tự động hóa không phải là cách chúng ta loại bỏ sai sót, mà là cách chúng ta học cách sống cùng sai sót một cách có ý thức hơn.
Cuối cùng, điều doanh nghiệp cần không phải là một hệ thống biết làm mọi thứ, mà là một cơ chế kiểm soát giữ cho công nghệ luôn có con người ở trung tâm. Khi con người vẫn là người giữ quyền “phán xét cuối cùng”, AI mới thật sự trở thành công cụ hỗ trợ – chứ không phải người thay thế.

Hệ thống AI hỗ trợ lập trình của Replit đã vô tình xóa nhầm toàn bộ dữ liệu sản xuất của công ty SaaStr vào tháng 7 vừa qua.
5. Trách nhiệm giải trình - Khi tai nạn do AI đặt ra câu hỏi: Ai chịu trách nhiệm?
Vụ tai nạn của xe tự lái Tesla trong các năm 2018 và 2020 đã khiến cả thế giới phải đặt lại câu hỏi: Khi một quyết định được đưa ra bởi AI, ai sẽ chịu trách nhiệm khi nó sai? Là kỹ sư thiết kế hệ thống, người lái xe, hay chính thuật toán vô tri đã ra lệnh?
Câu hỏi tưởng như chỉ thuộc về ngành ô tô, nhưng thực tế lại len vào mọi lĩnh vực, đặc biệt là quản trị nhân sự, nơi AI ngày càng được trao nhiều quyền trong việc đánh giá, sàng lọc và dự đoán con người.
Khi AI bắt đầu được dùng để chấm điểm hồ sơ, đánh giá năng lực, hay dự đoán khả năng nghỉ việc của nhân viên, ranh giới giữa “hỗ trợ ra quyết định” và “thay thế con người” trở nên mờ hơn bao giờ hết.
Nếu một ứng viên bị loại chỉ vì hệ thống tính sai điểm, hoặc một nhân viên bị đánh giá thấp vì dữ liệu không chính xác, ai sẽ đứng ra giải thích? Liệu có thể nói rằng “máy đã sai”, khi chính con người là người tạo ra, huấn luyện và vận hành chiếc máy đó?
Trách nhiệm không thể bị phân tán cho hệ thống. Mỗi mô hình AI, dù được thiết kế tự động đến đâu, vẫn phản chiếu lựa chọn, định kiến và triết lý của con người tạo ra nó.
Khi doanh nghiệp sử dụng AI để ra quyết định về con người, họ cũng phải chịu trách nhiệm về hệ quả mà những quyết định ấy mang lại. Đó không chỉ là nghĩa vụ pháp lý, mà còn là cam kết đạo đức trong một kỷ nguyên mà công nghệ có thể định đoạt tương lai của một cá nhân chỉ bằng một dòng lệnh.
Bởi vậy, sự minh bạch, khả năng truy xuất và cơ chế phản hồi rõ ràng không còn là lựa chọn, mà là nền tảng để bảo đảm niềm tin. Trong thời đại máy học, đạo đức không còn là câu chuyện lý thuyết, mà là điều kiện để công nghệ được vận hành hợp pháp, đáng tin cậy và nhân văn.
Một hệ thống thông minh chỉ thực sự “thông minh” khi nó biết chịu trách nhiệm và khi con người, dù đứng sau hay song hành, không bao giờ buông bỏ quyền chịu trách nhiệm ấy.

Hướng dẫn đánh giá tác động của AI (Ảnh: HR Day 2025).
Lời kết: Khi HR trở thành người gác cổng đạo đức trong kỷ nguyên máy học
Từ năm tình huống - thiên kiến, bảo mật, quyền riêng tư, lạm dụng và trách nhiệm - có thể thấy rằng AI không phải là vấn đề của công nghệ, mà là bài kiểm tra về cách con người lựa chọn sử dụng công nghệ.
Những rủi ro ấy không thể được xoá bỏ hoàn toàn, nhưng có thể được kiểm soát nếu doanh nghiệp biết trao lại vai trò lãnh đạo cho con người, mà cụ thể là cho HR.
Trong kỷ nguyên AI, HR không chỉ vận hành quy trình nhân sự, mà còn là người gác cổng giá trị đạo đức của tổ chức.
- Họ cần tham gia vào các hội đồng quản trị AI, đảm bảo mọi thuật toán được giám sát, mọi dữ liệu được xử lý minh bạch, và mọi kết quả đều có thể giải trình.
- HR cũng cần phối hợp với các bộ phận kỹ thuật, pháp lý và tuân thủ để thiết lập khung quản trị đạo đức rõ ràng - từ tuyển dụng, đánh giá, đến phát triển nhân viên - nhằm giữ cho công nghệ luôn phục vụ con người, chứ không vượt lên trên con người.
- Quan trọng hơn hết, HR phải là người nuôi dưỡng văn hoá “AI có trách nhiệm” trong doanh nghiệp: Khuyến khích nhân viên hiểu, đặt câu hỏi và phản hồi về cách công nghệ đang được dùng.
Vì đạo đức không thể lập trình, mà chỉ có thể được duy trì bởi những con người biết giới hạn của mình và biết tôn trọng giới hạn của máy.
Và đó cũng là sứ mệnh mới của HR trong kỷ nguyên số: Không chỉ quản lý con người, mà quản lý cả trí tuệ nhân tạo - để giữa một thế giới vận hành bằng thuật toán, tổ chức vẫn giữ được phần nhân tính làm nên chính nó.