Nhóm bảo mật tại Meta đang thừa nhận sự xuất hiện rộng rãi của phần mềm độc hại giả mạo chatbot trí tuệ nhân tạo (AI) ChatGPT, tồn tại để tấn công tài khoản người dùng và chiếm lấy các trang kinh doanh trên Facebook hay Instagram.
Trong báo cáo bảo mật Quý I/2023 của công ty, Meta chia sẻ rằng những kẻ điều hành phần mềm độc hại và kẻ gửi thư rác đang chạy theo các xu hướng và chủ đề có mức độ tương tác cao thu hút sự chú ý của mọi người.
Tất nhiên, xu hướng công nghệ lớn nhất hiện nay là các chatbot AI như ChatGPT, Bing và Bard, vì vậy việc lừa người dùng dùng thử phiên bản giả mạo hiện đang là "mốt".
Các nhà phân tích bảo mật của Meta đã tìm thấy khoảng 10 dạng phần mềm độc hại giả làm công cụ liên quan đến chatbot AI như ChatGPT kể từ tháng 3. Một số trong số này tồn tại dưới dạng tiện ích mở rộng cho trình duyệt web và thanh công cụ.
Một số thậm chí có sẵn thông qua các cửa hàng web chính thức chưa được đặt tên. Tờ Washington Post đã báo cáo vào tháng trước về cách những trò lừa đảo ChatGPT giả mạo này đã sử dụng quảng cáo trên Facebook để phát tán phần mềm độc hại.
Một số công cụ độc hại mạo danh ChatGPT này thậm chí còn được tích hợp AI để trông như thể đó là một chatbot thật. Meta đã tiếp tục chặn hơn 1.000 liên kết đến các phần mềm độc hại được phát hiện trên các nền tảng của nó.
Công ty cũng đã cung cấp nền tảng kỹ thuật về cách những kẻ lừa đảo giành được quyền truy cập vào tài khoản, bao gồm việc đánh cắp thông tin trong các phiên đăng nhập và duy trì quyền truy cập.
Đối với bất kỳ doanh nghiệp nào bị tấn công hoặc bị ngừng hoạt động trên Facebook, Meta đang cung cấp một quy trình hỗ trợ mới để khắc phục và lấy lại quyền truy cập vào chúng.
Các trang kinh doanh thường không chống lại được việc hack vì người dùng Facebook cá nhân có quyền truy cập vào chúng bị nhắm mục tiêu bởi phần mềm độc hại.
Giờ đây, Meta đang triển khai các tài khoản công việc Meta mới, hỗ trợ các dịch vụ đăng nhập một lần (SSO) hiện có và thường an toàn hơn vì chúng sẽ hoàn toàn không liên kết với tài khoản Facebook cá nhân.