- Bài 1: Giới thiệu
- Bài 2: Cài đặt
- Bài 3: Nền tảng toán học của Neural Networks
- Bài 4: Mạng nơron cơ bản
- Bài 5: Tổng quan về machine learning và deep learning
- Bài 6: Triển khai mạng thần kinh đầu tiên
- Bài 7: Functional Blocks và Terminologies
- Bài 8: Loading Data
- Bài 9: Linear Regression ( Hồi quy tuyến tính )
- Bài 10: Convolutional Neural Network ( CNN )
- Bài 11: Recurrent Neural Network ( RNN )
- Bài 12: Tập dữ liệu ( Dataset )
- Bài 13: Giới thiệu về Convents
- Bài 14: Huấn luyện Convent bằng Scratch
- Bài 15: Feature Extraction trong Convents ( Trích xuất đặc trưng )
- Bài 16: Visualization Convents
- Bài 17: Sequence Processing với Convents
- Bài 18: Word Embedding
- Bài 19: Recursive Neural Networks
Bài 4: Mạng nơron cơ bản - Pytorch Cơ bản
Đăng bởi: Admin | Lượt xem: 2448 | Chuyên mục: AI
Nguyên tắc chính của mạng nơ-ron bao gồm tập hợp các phần tử cơ bản, tức là nơ-ron nhân tạo hoặc nơ-ron cảm thụ. Nó bao gồm một số đầu vào cơ bản như x1, x2… .. xn , đầu ra nhị phân nếu tổng lớn hơn activation potential.
Biểu diễn sơ đồ của nơron mẫu được đề cập dưới đây:
Đầu ra được tạo ra có thể được coi là tổng có trọng số với activation potential hoặc độ lệch(bias).
Kiến trúc mạng nơ-ron điển hình được mô tả như sau :
Các lớp giữa đầu vào và đầu ra được gọi là các lớp ẩn(hidden layers), mật độ(density) và kiểu kết nối giữa các lớp là cấu hình(configuration). Ví dụ, một cấu hình được kết nối đầy đủ có tất cả các tế bào thần kinh của lớp L được kết nối với các tế bào thần kinh của L + 1. Để rõ ràng hơn, ta chỉ có thể kết nối một vùng lân cận cục bộ, chẳng hạn như chín tế bào thần kinh, với lớp tiếp theo. Hình 1-9 minh họa hai lớp ẩn với các kết nối dày đặc.
Các loại mạng nơ-ron khác nhau như sau:
Recurrent Neural Networks (RNN)
RNN là khi mẫu dữ liệu thay đổi do đó trong một khoảng thời gian. Trong RNN, cùng một lớp được áp dụng để chấp nhận các tham số đầu vào và hiển thị các tham số đầu ra trong mạng nơ-ron được chỉ định.
Mạng nơ-ron có thể được xây dựng bằng package torch.nn.
Đây là một mạng chuyển tiếp đơn giản. Nó lấy đầu vào, nạp lần lượt qua nhiều lớp, rồi cuối cùng đưa ra đầu ra.
Với sự trợ giúp của PyTorch, ta có thể sử dụng các bước sau cho quy trình đào tạo điển hình cho mạng nơron:
- Xác định mạng nơ-ron có một số tham số (hoặc trọng số) có thể học được.
- Lặp lại tập dữ liệu đầu vào.
- Xử lý đầu vào thông qua mạng.
- Tính toán loss (kết quả đầu ra chính xác đến đâu).
- Truyền chuyển màu trở lại các thông số của mạng.
- Cập nhật trọng số của mạng, thường sử dụng một bản cập nhật đơn giản như dưới đây
rule: weight = weight -learning_rate * gradient
Theo dõi VnCoder trên Facebook, để cập nhật những bài viết, tin tức và khoá học mới nhất!
- Bài 1: Giới thiệu
- Bài 2: Cài đặt
- Bài 3: Nền tảng toán học của Neural Networks
- Bài 4: Mạng nơron cơ bản
- Bài 5: Tổng quan về machine learning và deep learning
- Bài 6: Triển khai mạng thần kinh đầu tiên
- Bài 7: Functional Blocks và Terminologies
- Bài 8: Loading Data
- Bài 9: Linear Regression ( Hồi quy tuyến tính )
- Bài 10: Convolutional Neural Network ( CNN )
- Bài 11: Recurrent Neural Network ( RNN )
- Bài 12: Tập dữ liệu ( Dataset )
- Bài 13: Giới thiệu về Convents
- Bài 14: Huấn luyện Convent bằng Scratch
- Bài 15: Feature Extraction trong Convents ( Trích xuất đặc trưng )
- Bài 16: Visualization Convents
- Bài 17: Sequence Processing với Convents
- Bài 18: Word Embedding
- Bài 19: Recursive Neural Networks