Tải bản đầy đủ - 0 (trang)
Hình 2. 21 Mạng neural đa mức

Hình 2. 21 Mạng neural đa mức

Tải bản đầy đủ - 0trang

Có thể hiểu một cách nơm na, giống như dạy cho một đứa trẻ con, chúng ta sẽ cho

mạng nơ-ron một số ví dụ mẫu và huấn luyện nó để đầu ra tiệm cận nhất đến kết quả

đúng. Có thể nói đây cũng là một dạng bài tốn tối ưu hóa.

Đối với học khơng giám sát, trọng số và độ dốc của mạng được thay đổi tương

ứng giá trị ở đầu vào mà khơng có sẵn đích ở đầu ra. Phần lớn các thuật toán này biểu

diễn thành một tập bó. Người ta chia mẫu vào thành con số cụ thể của hạng (loại).

Điều này đặc biệt hữu ích trong các ứng dụng cụ thể như một véc tơ lượng tử hoá.

Chúng ta chỉ đề cập đển các thuật toán huấn luyện mạng perceptron theo kiểu học có

giám sát.

2.8.3.2 Luật học Perceptron

Perceptron được huấn luyện theo mẫu mong muốn cho trước. Mẫu mong muốn

có thể tập hợp thành một tập các cặp đầu vào, đầu ra:

p1, t1; p2, t2;...; pQ, tQ

Trong đó: p là đầu vào mạng, t là đáp ứng tương ứng ở đầu ra. Mục đích là giảm sai

lệch e giữa đáp ứng của nơron và hàm mục tiêu t (e = t - a). Luật học perceptron tính

trước sự thay đổi mong muốn đối với trọng số và độ dốc gửi tới véc tơ vào p và kết

hợp với sai lệch e. Do véc tơ đích t chỉ có thể có giá trị 0 hoặc 1, đối với một

perceptron (với các hàm truyền dạng hardlim) đầu ra chỉ có thể có 1 trong 2 giá trị.

Mỗi lần một chu trình của quá trình học được thực hiện, mạng sẽ có một giá trị kết quả

đầu ra chính xác hơn. Luật học perceptron sẽ hội tụ đển kết quả cuối cùng sau một số

hữu hạn các lần lặp nếu như có tồn tại đáp án. Trong q trình huấn luyện mạng có thể

xảy ra 3 trường hợp mỗi khi véc tơ đầu vào (p) xuất hiện và đáp ứng mạng (a) được

tính tốn:





Trường hợp 1: nếu véc tơ đầu vào xuất hiện và đáp ứng đầu ra của nó là đúng (a



= t, và e = t - a = 0) thì véc tơ trọng số W khơng thay đổi

 Trường hợp 2: nếu đầu ra của nơron bằng 0 còn trước đó bằng 1 (a = 0; t = 1 và

e = t - a = 1) véc tơ đầu vào p làm tăng véc tơ trọng số W. Điều này làm cho

véc tơ trọng số tiến gần tới véc tơ vào, dần dần khả năng véc tơ vào sẽ được

phân loại a = 1 trong tương lai.



 Trường hợp 3: nếu đầu ra của nơron bằng 1 trước đó có thể là 0 (a = 1; t = 0 và

e = t - a = -l) véc tơ vào P được trừ đi véc tơ hàm trọng W. Điều đó làm cho véc

tơ trọng số ngày càng xa véc tơ vào, dần dần véc tơ vào được phân loại a = 0

trong tương lai.

Luật học perceptron có thể được viết cơ đọng trong mối quan hệ của sai lệch

e = t - a và sự thay đổi của véc tơ trọng ΔW như sau:

 Trường hợp 1: Nếu e = 0 thì sự thay đổi giá trị của ΔW bằng 0.

 Trường hợp 2: Nếu e = 1 thì sự thay đổi giá trị của ΔW bằng 0.

 Trường hợp 3: Nếu e = -1 thì sự thay đổi giá trị của ΔW bằng 0 cả 3

trường hợp trên có thể viết dưới dạng biểu thức đơn giản:

ΔW = (t - a)pT = epT.



Ta có thể nhận được biểu thức để thay đổi độ dốc của nơron với chú ý rằng, độ

dốc chỉ đơn giản là trọng số của đầu vào là 1:

Δb = (t - a).(1) = e.

Đối với trường hợp của một lớp nơron ta có:

ΔW = (t - a)PT = epT



Δb = (t - a).(1) = e.

Luật học perceptron có thể tóm tắt như sau:

Wmới = Wcũ + ePT



bmới =bcũ + e

Trong đó e = t - a.



2.9 Ứng dụng Neural Networks Toolbox tạo cơ sở dữ liệu

Neural Network Toolbox cung cấp các hàm, các thuật tốn để lập mơ hình các hệ

thống phi tuyến phức tạp mà không dễ dàng được mô hình hóa với một phương trình

dạng khép kín. Neural Network Toolbox hỗ trợ việc học tập có giám sát với cơ sở dữ

liệu, cơ sở xuyên tâm và mạng động. Nó cũng hỗ trợ việc học tập khơng giám sát với

biểu đồ tự tổ chức và các lớp cạnh tranh. Với Neural Network Toolbox có thể thiết kế,

đào tạo, huấn luyện và mô phỏng các mạng thần kinh. Các ứng dụng Neural Networks

Toolbox như kết nối dữ liệu, nhận dạng mẫu, phân cụm, dự đốn chuỗi thời gian và

mơ hình hóa và kiểm sốt hệ thống động.



 Cửa số NNTool



Hình 2. 21 Cửa sổ nntool matlab

 Thực hiện huấn luyện dữ liệu đầu vào với:

 Đầu vào gồm 18 đặc trưng đã trích xuất, đầu ra năm ma trận đại diện cho

5 giống lúa với.

 Hàm huấn luyện: TRAINGDX gradient gốc với quán tính và cường độ

học tập ngược thích nghi. Hàm đào tạo cập nhật các giá trị trọng số và độ

lệch theo đà gradient gốc và tốc độ học thích ứng. Hàm có thể huấn

luyện một hệ thống bất kỳ có trọng số, đầu vào, hàm truyền có hàm phát

sinh. Hàm học tập ngược thích nghi dùng để tính tốn hiệu suất với các

trọng số và biến độ lệch, mỗi biến được điều chỉnh gradient gốc với quy

luật

 Phương pháp học tập thích ứng: LEARNGDM tính tốn quy luật thay

đổi dW đối với một nơron đã cho từ đầu vào của nơron P và sai số E,

trọng số (hoặc thiên vị) W, tốc độ học LR, và hằng số quán tính MC,

theo gradient gốc với động lượng: dW = mc * dWprev + (1-mc) * lr *

gW Thay đổi trong số trước đó dWprev được lưu trữ và đọc từ trạng thái

LS học tập.

 Hàm thực thi: MSE



Tài liệu bạn tìm kiếm đã sẵn sàng tải về

Hình 2. 21 Mạng neural đa mức

Tải bản đầy đủ ngay(0 tr)

×