Apple cấm nhân viên sử dụng ChatGPT và các nền tảng AI khác
Apple ra lệnh cấm nhân viên sử dụng ChatGPT, sau quyết định phát triển công nghệ tương tự của riêng mình.
Nhân viên Apple được yêu cầu là không được sử dụng ChatGPT và các công cụ AI bên ngoài khác, trong khi công ty đang phát triển công nghệ tương tự vì lo ngại rò rỉ dự liệu mật.
Theo Reuters, việc nhân viên sử dụng các công cụ AI tương tự như ChatGPT có thể dẫn đến rò rỉ dữ liệu bí mật, do đó công ty chọn phát triển công nghệ tương tự của riêng mình và ra lệnh cấm sử dụng các mô hình bên ngoài.
ChatGPT, do OpenAI tạo ra và được hỗ trợ bởi Microsoft, là một chatbot có khả năng trả lời câu hỏi, viết bài luận và thực hiện các tác vụ khác tương tự như con người. Bên cạnh đó, các nhân viên được yêu cầu không sử dụng Copilot của Microsoft GitHub để tự động viết code.
Để các công cụ này có thể liên tục được cải tiến, nhà phát triển sẽ thu thập dữ liệu do người dùng gửi và đặt câu hỏi. Từ đó, một công ty có thể vô tình chia sẻ thông tin độc mật mà họ không hề hay biết. Apple được biết đến với các biện pháp bảo mật nhằm bảo vệ thông tin về các sản phẩm trong tương lai và dữ liệu người tiêu dùng.
CEO Apple, Tim Cook cũng nhận ra trí tuệ nhân tạo có tiềm năng to lớn như thế nào trong ngành công nghệ, điều này có ý nghĩa nếu công ty phát triển công cụ AI của riêng mình. Mặc dù vẫn quan tâm đến công nghệ này, Cook cảnh báo rằng hãy thận trọng khi tiếp cận nó.
Ngoài Apple, một vài tập đoàn lớn khác cũng cấm nhân viên của mình sử dụng AI để viết mail, code và tìm tài liệu. Trong khi đó, khổng lồ thương mại điện tử Amazon kêu gọi các kỹ sư của mình sử dụng công cụ AI nội bộ của riêng mình thay vì sử dụng ChatGPT để hỗ trợ viết code.
Samsung cũng đưa ra chính sách mới, cấm sử dụng các công cụ AI khác, sau khi phát hiện nhân viên vô tình làm rò rỉ dữ liệu nhạy cảm bằng cách tải code lên ChatGPT.
Theo công ty, mặc dù mối quan tâm này tập trung vào tính hữu ích và hiệu quả của các nền tảng này, nhưng cũng có những lo ngại ngày càng tăng về rủi ro bảo mật do AI tổng quát gây ra.
Bài cùng chuyên mục