Sự cường điệu xung quanh trí tuệ nhân tạo đã lên đến đỉnh điểm trong những tháng gần đây, khi nhiều người lo sợ các chương trình như ChatGPT một ngày nào đó sẽ khiến họ mất việc. Đối với một luật sư ở New York, cơn ác mộng đó có thể trở thành hiện thực sớm hơn dự kiến.
Theo New York Times, luật sư Steven Schwartz của công ty luật Levidow, Levidow và Oberman (Mỹ) gần đây đã sử dụng chatbot của OpenAI để được hỗ trợ khi viết một bản tóm tắt pháp lý khi thay mặt cho khách hàng bị thương kiện hãng hàng không Avianca của Columbia.
Khi hãng hàng không yêu cầu một thẩm phán liên bang bác bỏ vụ kiện, các luật sư của Mata đã đệ trình một bản tóm tắt dài 10 trang tranh luận về lý do tại sao nên tiến hành vụ kiện.
Tài liệu đã trích dẫn nhiều quyết định của tòa án, bao gồm trường hợp “Varghese kiện China Southern Airlines,” “Martinez kiện Delta Airlines” và “Miller kiện United Airlines”. Thật không may cho những người có liên quan, những quyết định nào của tòa án được luật sư của Mata trích dẫn đều không có thật. Chúng được ChatGPT bịa ra.
Trong một bản khai có tuyên thệ được nộp vào ngày 25.5, Schwartz cho biết, ông đã sử dụng chatbot của OpenAI để “bổ sung” cho nghiên cứu của mình về vụ án.
Vị luật sư viết rằng, ông "không biết về khả năng nội dung của ChatGPT có thể là sai".
Ông thậm chí còn chia sẻ ảnh chụp màn hình cho thấy đã hỏi ChatGPT xem liệu các trường hợp mà nó trích dẫn có thật không. Theo đó, trí tuệ nhân tạo này đã trả lời là có và tuyên bố rằng các quyết định được nhắc tới có thể được tìm thấy trong “cơ sở dữ liệu pháp lý có uy tín”.
Schwartz cho biết, ông “rất hối hận” khi sử dụng ChatGPT trong công việc “và sẽ không bao giờ làm như vậy trong tương lai nếu không có xác minh tuyệt đối về tính xác thực của nó”.
Liệu vị luật sư người Mỹ có một cơ hội khác để viết một bản tóm tắt pháp lý hay không vẫn chưa rõ, nhưng thẩm phán giám sát vụ án đã ra lệnh tổ chức phiên điều trần vào ngày 8.6 để thảo luận về các biện pháp trừng phạt tiềm năng đối với “tình huống chưa từng có” do hành động của Schwartz tạo ra.