Logo vi.boatexistence.com

Tại sao giảm độ dốc ngẫu nhiên?

Mục lục:

Tại sao giảm độ dốc ngẫu nhiên?
Tại sao giảm độ dốc ngẫu nhiên?
Anonim

Theo một nhà khoa học dữ liệu cấp cao, một trong những lợi thế khác biệt của việc sử dụng Stochastic Gradient Descent là nó thực hiện các phép tính nhanh hơn so với gradient descent và batch gradient descent … Ngoài ra, trên tập dữ liệu lớn, đường xuống dốc ngẫu nhiên có thể hội tụ nhanh hơn vì nó thực hiện cập nhật thường xuyên hơn.

Stochastic Gradient Descent được sử dụng để làm gì?

Stochastic gradient descent là một thuật toán tối ưu hóa thường được sử dụng trong các ứng dụng học máy để tìm các thông số mô hình tương ứng với sự phù hợp nhất giữa đầu ra được dự đoán và thực tếĐó là một kỹ thuật không chính xác nhưng mạnh mẽ. Stochastic gradient descent được sử dụng rộng rãi trong các ứng dụng học máy.

Tại sao chúng ta cần sử dụng Stochastic Gradient Descent thay vì dùng gradient descent tiêu chuẩn để đào tạo mạng nơ-ron tích hợp?

Giảm độ dốc ngẫu nhiên cập nhật các thông số cho mỗi lần quan sát, dẫn đến nhiều bản cập nhật hơn. Vì vậy, đó là một cách tiếp cận nhanh hơn giúp đưa ra quyết định nhanh hơn. Có thể nhận thấy các bản cập nhật nhanh hơn theo các hướng khác nhau trong hoạt ảnh này.

Tại sao chúng tôi thích chuyển xuống dốc?

Lý do chính tại sao độ dốc gradient được sử dụng cho hồi quy tuyến tính là độ phức tạp tính toán: tính toán rẻ hơn (nhanh hơn) khi tìm lời giải bằng cách sử dụng độ dốc gradient trong một số trường hợp. Ở đây, bạn cần tính toán ma trận X′X sau đó đảo ngược nó (xem ghi chú bên dưới). Đó là một phép tính tốn kém.

Tại sao SGD được sử dụng?

Stochastic gradient descent (thường được viết tắt là SGD) là một phương pháp lặp lại để tối ưu hóa một hàm mục tiêu với các đặc tính độ mịn phù hợp(ví dụ: phân biệt hoặc phân biệt con).

Đề xuất: