Cân bằng cán cân: Các công cụ pháp lý để bảo vệ khỏi sự thống trị của AI.
- Yen Nguyen
- 3 days ago
- 3 min read
Rẽ Ngón Dài
25-03-2025
“Well, a real collision may inflict real hurt as at that technology-powered speed, Kingfisher might risk a broken beak or lost feathers […].”
Trích “Innovation”; Wild Wise Weird [1]

Khi trí tuệ nhân tạo (AI) ngày càng thâm nhập sâu rộng vào xã hội, những lo ngại gia tăng rằng nó có thể không chỉ hỗ trợ con người mà còn thống trị họ. Trong một nghiên cứu gần đây, học giả luật Maksymilian Michał Kuźmicz [2] khám phá cách luật pháp có thể đóng vai trò như một biện pháp bảo vệ chống lại sự mất cân bằng quyền lực do AI gây ra, bằng cách sử dụng một khuôn khổ gọi là mô hình cân bằng động.
Trong bối cảnh này, sự thống trị có nghĩa là sự mất tự chủ của con người do các mối quan hệ quyền lực bất đối xứng – khi một bên, chẳng hạn như một hệ thống AI hoặc các nhà phát triển của nó, có thể hành động mà không bị những người có tầm ảnh hưởng kiểm soát. Kuźmicz đã xác định được hai nguồn chính của quyền lực như sau: kiểm soát tài nguyên (như dữ liệu, năng lực tính toán hoặc kỹ năng số) và kiểm soát các sự kiện (chẳng hạn như quy trình ra quyết định hoặc các hành động tự động).
Để chống lại điều này, nghiên cứu đề xuất các cơ chế pháp lý được thiết kế để khôi phục sự cân bằng. Cơ chế bao gồm hỗ trợ tài chính (như trợ cấp cho các công cụ kỹ thuật số), quy định bắt buộc về minh bạch và quyền tiếp cận thông tin (để người dùng hiểu và có thể đặt câu hỏi về các quyết định của AI) và hỗ trợ chuyên biệt - (như giáo dục về AI và trợ giúp pháp lý). Khuôn khổ này cũng ủng hộ các biện pháp quản lý mạnh mẽ hơn, chẳng hạn như cấm các ứng dụng AI gây hại, đảm bảo thiết kế có sự tham gia bao gồm cả tiếng nói của những người yếu thế và tăng cường khả năng tiếp cận các biện pháp pháp lý [3].
Thay vì xem quy định về AI là rào cản của sự đổi mới, Kuźmicz đề xuất sự cân bằng như một chiến lược pháp lý chủ động để duy trì phẩm giá và quyền tự quyết của con người. Để đảm bảo AI phát triển một cách đúng đắn, tôn trọng các giá trị dân chủ, bài báo này đưa ra một hướng đi bằng cách giải quyết những vấn đề sâu xa về quyền lực công nghệ, từ cách nó được xây dựng đến cách nó được thực hiện.
Trong một thế giới ngày càng được định hình bởi các thuật toán, nghiên cứu này đưa ra một lập luận thuyết phục: những gì chúng ta cần không chỉ là một con AI ngày càng thông minh hơn mà còn là một hệ thống luật pháp chặt chẽ hơn, lấy con người làm trung tâm hơn – có khả năng dự đoán và ngăn chặn sự thống trị trước khi nó bén rễ.
Để đạt được điều này, chúng ta cũng phải soi xét lại cách chúng ta quá dễ dàng cho phép quyền lực tập trung, cho dù ở chính phủ, tập đoàn hay máy móc. Do đó, sự cân bằng pháp lý không chỉ đơn thuần là vấn đề các quy tắc và quyền lợi; nó phản ánh một sự thay đổi văn hóa rộng lớn hơn hướng tới sự khiêm tốn, sẵn sàng chịu trách nhiệm và nhận thức về sinh thái. Bằng cách tích hợp các khuôn khổ pháp lý chủ động với những câu chuyện mang đậm cảm xúc thách thức các giả định của chúng ta, chúng ta có thể tiến tới không chỉ các hệ thống AI an toàn hơn mà còn một tương lai công bằng hơn, bền vững hơn [3].
Tài liệu tham khảo
[1] Vuong QH. (2024). Wild Wise Weird. https://www.amazon.com/dp/B0BG2NNHY6/
[2] Kuźmicz MM. (2025). Equilibrating the scales: balancing and power relations in the age of AI. AI & Society. https://doi.org/10.1007/s00146-025-02300-2
[3] Hacker P. (2023). The European AI liability directives – Critique of a half-hearted approach and lessons for the future. Computer Law & Security Review, 51, 105871. https://doi.org/10.1016/j.clsr.2023.105871
[4] Nguyen MH. (2024). How can satirical fables offer us a vision for sustainability? Visions for Sustainability. https://ojs.unito.it/index.php/visions/article/view/11267
Comments