Vào ngày 20/2/2021, Meg Mitchell, trưởng nhóm trí tuệ nhân tạo đạo đức (Ethical Artificial Intelligence) của Google, đã đăng một tuyên bố ngắn trên Twitter: “Tôi bị sa thải”, giống hệt như sự việc đã từng xảy ra với Timnit Gebru, một nhà nghiên cứu nữ khác vào năm 2020. Cả hai người phụ nữ này đều là đồng trưởng bộ phận Ethical AI của Google.
Vào cuối năm 2020, Gebru đã chia sẻ rằng cô ấy bị cho thôi việc ở công ty. Sau khi từ chối rút lại bài báo nghiên cứu chỉ trích công nghệ AI của Google, cô ấy đã bày tỏ sự không hài lòng với định kiến chủng tộc của công ty trong một email nội bộ của Google và đã bị sa thải. Từ góc độ bên ngoài, khó có thể bỏ qua mối liên kết việc Mitchell bị sa thải với vụ Gebru.
Cô Gebru là đồng trưởng bộ phận Ethical AI của Google và là một trong số rất ít các nhà nghiên cứu nữ da màu trong Google (theo báo cáo hàng năm năm 2020 của công ty, 3,7% nhân viên của Google là người da màu). Đồng thời, cô cũng là đồng sáng lập của Black In AI, nền tảng dành riêng cho quyền bình đẳng của người da màu trong lĩnh vực thuật toán.
Về phía Google, Jeff Dean, người đứng đầu bộ phận AI của Google đã lên tiếng và nói rằng bài báo của Gebru không đáp ứng các tiêu chuẩn xuất bản và Gebru đã chủ động từ chức. Hai bên có ý kiến bất đồng và họ đã đấu khẩu qua lại trên Twitter. Sau vụ việc, hầu hết cộng đồng AI đều đứng về phía cô Gebru.
Theo báo cáo của BBC, hơn 4.500 nhà nghiên cứu từ Microsoft, Google và các công ty lớn khác đã ký một bức thư ngỏ ủng hộ Gebru, yêu cầu Google giải thích thêm về lý do sa thải Gebru. Vào tháng 1/2021, các nhân viên nội bộ của Google cũng đã thành lập Liên đoàn AIphabet, mở rộng cho tất cả nhân viên AIphabet, bao gồm cả công nhân tạm thời, nhà cung cấp,... lên tiếng vì quyền lợi của thiểu số và yêu cầu khôi phục vị trí của Gebru.
Giám đốc điều hành của công ty Pichai đã đứng ra để xoa dịu tình hình và hứa sẽ tiến hành các cuộc điều tra sâu hơn để chấm dứt vụ việc này. Vào tháng 2/2021, Jeff Dean cũng đã xin lỗi về việc cô Gebru bị sa thải và những tổn hại gây ra cho các nhân viên nữ khác. Google sau đó cũng đã công bố một chính sách đa dạng mới, bao gồm việc liên kết mục tiêu DEI (Đa dạng, Công bằng và Hòa nhập) với đánh giá hiệu suất của nhân viên.
Đây dường như là một hành động dập lửa tiếp theo, nhưng sau đó Meg Mitchell lại bị sa thải. Mitchell lúc đó cũng là một chuyên gia tại Ethical AI. Cô ấy nghiên cứu về sự thiên vị máy móc, sự đa dạng về sắc tộc và giới tính cũng như các mô hình ngôn ngữ để chụp ảnh. Mitchell và Gebru đồng lãnh đạo nhóm Ethical AI của công ty. Đồng thời, điều đáng chú ý là Mitchell cũng là đồng tác giả của bài báo châm ngòi kể trên.
Sau khi Gebru bị sa thải, Mitchell liên tục bày tỏ sự không hài lòng với Google trên các nền tảng công khai. Vào tháng 1/2021, cô đã bị hạn chế quyền truy cập vào e-mail nội bộ của công ty. Chỉ vài giờ trước khi bị sa thải, Mitchell cũng chỉ trích Google trên Twitter vì có động thái xa lánh phụ nữ da màu.
Phản hồi của Google đối với việc sa thải Mitchell là “sau khi tiến hành xem xét hành vi của người quản lý này, chúng tôi đã xác nhận rằng có nhiều vi phạm quy tắc ứng xử cũng như các chính sách bảo mật của Google, bao gồm việc lấy cắp các tài liệu bí mật nhạy cảm với doanh nghiệp và dữ liệu riêng tư của các nhân viên khác”.
Quay trở lại bài báo nghiên cứu gây tranh cãi ban đầu “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”. Bài báo đã nghiên cứu khám phá những rủi ro của việc tiêu thụ điện năng cao do các mô hình ngôn ngữ lớn (chẳng hạn như BERT) từ quan điểm bảo vệ môi trường, chủng tộc và giới tính. Đồng thời, Gebru chỉ ra rằng nếu dữ liệu hiện có bị sử dụng bừa bãi để đào tạo trí tuệ nhân tạo, nó sẽ càng làm sâu sắc thêm định kiến của các nhóm thiểu số bên lề về mô hình ngôn ngữ AI.
Phần giới thiệu của bài báo có nội dung: “Chúng tôi tự hỏi liệu chúng tôi đã suy nghĩ thấu đáo về những rủi ro tiềm ẩn liên quan đến việc phát triển thuật toán này và các chiến lược để giảm thiểu những rủi ro này hay chưa?”.
Google AI lần đầu tiên phát minh ra mô hình ngôn ngữ Transformer vào năm 2017 và vào năm 2018, thuật toán BERT - mô hình ngôn ngữ được đưa ra trên cơ sở này đã gây được tiếng vang trong lĩnh vực trí tuệ nhân tạo, đồng thời cũng được sử dụng rộng rãi trong việc đào tạo công cụ tìm kiếm của Google và trở thành một nguồn thu nhập kinh tế quan trọng của Google.
Đây không phải là lần đầu tiên xuất hiện định kiến đạo đức liên quan đến AI. Vào năm 2015, Google Photos đã nhầm lẫn khi dán nhãn hai người da màu là "khỉ" và sau đó đã cố gắng thực hiện các biện pháp ngay lập tức để ngăn chặn những sai lầm đó. Nhưng sau đó để giải quyết vấn đề này, Google đã trực tiếp xóa nhãn của cụm từ này khỏi kết quả tìm kiếm. Tạp chí Wired đã thử nghiệm hơn 40.000 bức ảnh động vật trên Google Photos và cuối cùng đưa ra kết luận: Google không còn dán nhãn bất kỳ bức ảnh nào là khỉ đột, tinh tinh, khỉ, thậm chí là ảnh của những động vật như vậy.
Sai lệch về AI từng gây sốc nhất là thuật toán PULSE xác định Obama là người da trắng. Thuật toán do Nvidia phát triển này sử dụng một công nghệ gọi là nâng cấp để xử lý dữ liệu hình ảnh nhằm tạo ra hình ảnh khuôn mặt có độ phân giải cao mới từ hình ảnh có độ phân giải thấp ban đầu. Kết quả này làm dấy lên tranh cãi về tính phân biệt chủng tộc của AI, sự thiên vị đến từ người tạo ra chúng và dữ liệu mà chúng đang làm việc, trong trường hợp này là chuyển hình ảnh người da màu thành da trắng.
Các cuộc xung đột bắt nguồn từ vấn đề phân biệt chủng tộc và da màu tại Google
Nguyên nhân sâu xa về các vấn đề đạo đức của Google AI là những định kiến trong xã hội loài người. Từ lâu, các công ty công nghệ ở Thung lũng Silicon đã thể hiện văn hóa cởi mở và bình đẳng với thế giới bên ngoài. Ngay từ năm 2014, 33 công ty công nghệ ở Thung lũng Silicon đã ký cam kết đa dạng hóa.
Tuy nhiên, bên cạnh sự thiên vị về thuật toán, trong những năm gần đây, các công ty như Microsoft, Amazon và Uber thường xuyên bùng nổ các vụ bê bối đạo đức về phân biệt giới tính và thành kiến về màu da khiến Google, từng là nhà tuyển dụng tốt nhất thế giới cũng không thể thoát khỏi cuộc chỉ trích.
Năm 2018, theo New York Times, Google đã trả khoảng 90 triệu USD cho Andy Rubin, “cha đẻ của Android” sau khi Andy bị cáo cuộc quấy rối tình dục và phải từ chức. Google còn tiếp tục đầu tư hàng triệu USD cho các dự án mà ông tham gia. Điều này đã gây ra sự phản đối mạnh mẽ từ các nhân viên của Google.
Hơn 20.000 nhân viên tại hơn 20 văn phòng trên khắp thế giới đã đình công tập thể và xuống đường hô hào, "Chúng tôi muốn sự minh bạch, trách nhiệm giải trình và điều chỉnh cơ cấu". Google sau đó đã xin lỗi và hứa sẽ rút lại trọng tài bắt buộc đối với hành vi sai trái có mục tiêu.
Mặc dù nhiều cuộc thảo luận về đạo đức liên quan đến AI liên tục xuất hiện trong Google trong những năm gần đây, thế giới bên ngoài vẫn tiếp tục chỉ trích Google vì đã làm không tốt trong những lĩnh vực này. Nhưng ở một góc độ khác, với sự phát triển nhanh chóng của ngành công nghiệp AI trên toàn cầu, chỉ có Google mới bùng nổ các cuộc thảo luận nghiêm túc trên quy mô lớn như vậy. Điều này chính xác được sinh ra từ văn hóa quản lý tự do và thẳng thắn lâu đời của Google.
Sau cơn bão từ chức của Gebru, không chỉ đội Ethical AI mà bầu không khí của toàn bộ công ty Google tiếp tục căng thẳng. Trong cuộc tranh cãi nảy lửa và nhiều cuộc biểu tình phản đối trong nội bộ Google, Google đã thành lập liên đoàn lao động quy mô lớn đầu tiên ở Thung lũng Silicon, AIphabet Worker Union, cho phép nhân viên tự do phát biểu.
Năm 2021, sau nhiều cuộc điều tra sâu, Jeff Dean đã xin lỗi về sự cố Gebru và bổ nhiệm Marian Croak, một giám đốc điều hành người da màu được kính trọng, quản lý Google AI. Mục đích ban đầu của Ethical AI là theo dõi xu hướng đạo đức AI của Google. Do đó, bộ phận này cũng là bộ phận đa dạng nhất trong công ty, tập hợp những nhóm trong thuật toán có nhiều khả năng bị tổn hại bởi định kiến.
Điều đáng chú ý là công đoàn AIphabet đã không dừng lại sau vụ việc này. Vào ngày 11/2/2021, công đoàn AIphabet đã đệ đơn cáo buộc Google không công bằng với lao động, đây là hành động pháp lý đầu tiên của công đoàn. Khác với những hành động trước đây như thư ngỏ, cáo buộc này đã có hiệu lực pháp luật. Đối với một nền công nghệ đầy những hộp đen và ẩn số, vẫn còn rất nhiều vấn đề đáng bàn về AI. Google là công ty đầu tiên có những cuộc thảo luận sôi nổi, nhưng họ sẽ không bao giờ là công ty cuối cùng.
Nguyễn Chân
09:00 | 14/08/2020
08:00 | 11/11/2020
08:00 | 12/03/2021
13:00 | 15/04/2024
Hội thảo quốc tế IEEE lần thứ nhất về mật mã và an toàn thông tin (VCRIS 2024) dự kiến sẽ được tổ chức trong 02 ngày 03-04/12/2024 tại Học viện Kỹ thuật mật mã, Ban Cơ yếu Chính phủ. Hội thảo nhằm mục đích tạo lập và phát triển môi trường trao đổi học thuật, thúc đẩy các hoạt động nghiên cứu khoa học cơ bản, khoa học ứng dụng về mật mã và an toàn thông tin tại Việt Nam và thế giới.
13:00 | 05/04/2024
Chính phủ Hoa Kỳ đang cảnh báo thống đốc các bang về việc tin tặc nước ngoài đang thực hiện các cuộc tấn công mạng gây rối loạn hệ thống nước và nước thải trên khắp đất nước.
14:00 | 25/03/2024
Sáng 25/3, tại Hà Nội, Đại tướng Phan Văn Giang, Ủy viên Bộ Chính trị, Phó bí thư Quân ủy Trung ương, Bộ trưởng Bộ Quốc phòng đã có buổi làm việc với Ban Cơ yếu Chính phủ.
13:00 | 18/01/2024
Một nhóm tin tặc hacktivist ủng hộ Ukraine có tên là Blackjack tuyên bố thực hiện một cuộc tấn công mạng nhằm vào nhà cung cấp dịch vụ Internet M9com của Nga, hành động này như một phản ứng trực tiếp và để trả đũa cuộc tấn công nhằm vào gã khổng lồ viễn thông Kyivstar của Ukraine trước đó.
Khoảng giữa năm 1995, cơ quan An ninh Quốc gia Mỹ (National Security Agency - NSA) bắt đầu công bố hàng nghìn thông điệp được giải mật từ dự án VENONA. Đó là các thông điệp được truyền trong hoạt động ngoại giao và hoạt động tình báo của Liên Xô được trao đổi từ năm 1940. Trong đó, có chứa các thông tin liên quan đến Cơ quan tình báo trung ương Liên Xô (Komitet Gosudarstvennoy Bezopasnosti - KGB), Cơ quan Tình báo Quân đội Nga (Glavnoye Razvedyvatel’noye Upravleniye - GRU), Cơ quan Dân ủy Nội vụ (Narodnyy Komissariat Vnutrennikh Del - NKVD)…. Đây là kết quả hợp tác truyền thông tình báo của Mỹ, Anh và một số nước đồng minh. Bài viết dưới đây trình bày khái quát các kết quả chính và nguyên nhân thám mã thành công của dự án VENONA.
15:00 | 30/12/2018
Chiều 17/4, tại Hà Nội diễn ra Lễ công bố quyết định và trao tặng Bằng khen của Viện trưởng Viện Kiểm sát nhân dân tối cao đối với tập thể, cá nhân Cục Cơ yếu Đảng - Chính quyền (Ban Cơ yếu Chính phủ), vì đã có thành tích xuất sắc trong việc xây dựng Quy chế phối hợp giữa Viện Kiểm sát nhân dân tối cao và Ban Cơ yếu Chính phủ.
16:00 | 19/04/2024
Hướng tới kỷ niệm 80 năm Ngày truyền thống ngành Cơ yếu Việt Nam (12/9/1945 - 12/9/2025), Ban Cơ yếu Chính phủ đã ban hành Kế hoạch phát động Cuộc thi sáng tác nghệ thuật thơ, ca khúc về Ngành Cơ yếu Việt Nam.
10:00 | 16/04/2024