TiiL Tutorials
@TinhocTiiL

AI-Thực hành 1

Bài toán hôm nay chúng ta làm phải gọi là 1 bài toán kinh điển đó là phân loại hoa lan hay còn gọi là IRIS Classification. Bài toán nầy kinh điển đến nỗi Sklearn tích hợp luôn data để lúc cần dùng khỏi cần load từ bên ngoài. Haha!  [Nguồn: https://miai.vn/2020/06/25/oanh-gia-model-ai-theo-cach-mi-an-lien-chuong-3-thuc-hanh-voi-python/]

Bài toán này chúng ta sẽ dựa vào thông tin bông hoa lan để dự đoán tên loài hoa lan. Ta có dữ liệu như sau:

  • Input: Là 4 thông tin về các bông hoa lan gồm: chiều dài và rộng của cánh hoa, chiều dài và rộng của đài hoa. Ví dụ [5.84 3.05 3.76 1.2]
  • Output: Là tên của loài hoa lan. Có 3 loài: 0 – Setosa, 1-Veriscolour và 2-Virginica

Bây giờ chúng ta cần train model sao cho khi đưa vào các thông số bông hoa thì model sẽ predict ra tên loài hoa.

Bài này là bài sample, có nhiều cách làm như SVM, KNN, …. nhưng hôm nay mình sẽ dùng hẳn Mạng nơ ron. Lý do? Đơn giản vì mình muốn demo cho các bạn cách oánh giá model là chính mà :D. Giải bài toán là phụ thôi.

Phần 2 – Triển khai bài toán

LOAD DỮ LIỆU BÀI TOÁN

Như mình đã nói, bài này không cần dùng dữ liệu ngoài. Các bạn load thẳng trong sklearn là okie:

# import thư viện
from sklearn.datasets import load_iris
# Thực hiện load dữ liệu
iris_data = load_iris() 

# In ra 10 input đầu tiên
print('First 10 inputs: ')
print(iris_data.data[:10])
# In ra 10 output đầu tiên
print('First 10 output (label): ')
print(iris_data.target[:10])

Và chúng ta sẽ có dữ liệu in ra như sau là chuẩn rồi:

 

First 10 inputs: 
[[5.1 3.5 1.4 0.2]
 [4.9 3.  1.4 0.2]
 [4.7 3.2 1.3 0.2]
 [4.6 3.1 1.5 0.2]
 [5.  3.6 1.4 0.2]
 [5.4 3.9 1.7 0.4]
 [4.6 3.4 1.4 0.3]
 [5.  3.4 1.5 0.2]
 [4.4 2.9 1.4 0.2]
 [4.9 3.1 1.5 0.1]]
First 10 output (label): 
[0 0 0 0 0 0 0 0 0 0]

 

TIỀN XỬ LÝ DỮ LIỆU VÀ CHIA DỮ LIỆU TRAIN, TEST

Dữ liệu đã load thành công, bây giờ ta cần chuẩn hóa một chút. Ở đây output đang có dạng là 0,1,2 và do đó ta cần đưa về OneHot cho tiện train model với hàm Softmax:

 
# Gán input vào biến X
X = iris_data.data
# Gán output vào biến y 
y = iris_data.target.reshape(-1,1)

# Thực hiện Onehot transform
encoder = OneHotEncoder(sparse=False)
y = encoder.fit_transform(y)
print("Output after transform")
print(y)

# Chia dữ liệu train, test với tỷ lệ 80% cho train và 20% cho test
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.20)
 Và đây, dữ liệu y – output đã được transform thành One hot vector:
 
Output after transform
[[1. 0. 0.]
 [1. 0. 0.]
 [1. 0. 0.]
 [1. 0. 0.]
 [1. 0. 0.]
 [1. 0. 0.]
 [1. 0. 0.]
 [1. 0. 0.]
 [1. 0. 0.]
 [1. 0. 0.]]
CÀI ĐẶT MẠNG NƠ RON

Mọi thứ đã sẵn sàng bây giờ chúng ta sẽ cài đặt mạng NN thử nhé. Để đơn giản hóa mình sẽ dùng một mạng đơn giản với vài lớp thôi:

 

# Khai báo model
model = Sequential()

model.add(Dense(128, input_shape=(4,), activation='relu', name='layer1'))
model.add(Dense(128, activation='relu', name='layer2'))
model.add(Dense(3, activation='softmax', name='output'))

# Cài đặt hàm tối ưu Adam 
optimizer = Adam()
model.compile(optimizer, loss='categorical_crossentropy', metrics=['accuracy'])

# In cấu trúc mạng ra màn hình
print('Detail of network: ')
print(model.summary())

Và đây là kết quả trên màn hình

 

Detail of network: 
Model: "sequential_1"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
layer1 (Dense)               (None, 128)               640       
_________________________________________________________________
layer2 (Dense)               (None, 128)               16512     
_________________________________________________________________
output (Dense)               (None, 3)                 387       
=================================================================
Total params: 17,539
Trainable params: 17,539
Non-trainable params: 0
_________________________________________________________________
None

Để ý các bạn sẽ thấy mấy thông số hay ho:

  • Cột Param# là số tham số của mỗi layer.
  • Ở dưới cùng là có tổng số tham số cần train của model là 17,539.
  • Hàm loss ở đây là categorical_crossentropy (đã nói ở bài Loss)
TRAIN MODEL VÀ EVALUATE TRÊN TẬP TEST

 

# Train model
model.fit(X_train, y_train, batch_size=32, epochs=10)

# Kiểm tra trên tập test
results = model.evaluate(X_test, y_test)

print('Test loss: {:4f}'.format(results[0]))
print('Test accuracy: {:4f}'.format(results[1]))

Mình train với batch_size=32 và 10 epochs nhưng kết quả khá tốt với Test Loss là 0.263 và Test Accuracy là 0.9666

 

Epoch 1/10
120/120 [==============================] - 0s 159us/step - loss: 0.3818 - accuracy: 0.9833
Epoch 2/10
120/120 [==============================] - 0s 139us/step - loss: 0.3555 - accuracy: 0.9833
Epoch 3/10
120/120 [==============================] - 0s 133us/step - loss: 0.3323 - accuracy: 0.9583
Epoch 4/10
120/120 [==============================] - 0s 122us/step - loss: 0.3092 - accuracy: 0.9583
Epoch 5/10
120/120 [==============================] - 0s 124us/step - loss: 0.2900 - accuracy: 0.9750
Epoch 6/10
120/120 [==============================] - 0s 126us/step - loss: 0.2712 - accuracy: 0.9833
Epoch 7/10
120/120 [==============================] - 0s 120us/step - loss: 0.2543 - accuracy: 0.9750
Epoch 8/10
120/120 [==============================] - 0s 119us/step - loss: 0.2424 - accuracy: 0.9833
Epoch 9/10
120/120 [==============================] - 0s 129us/step - loss: 0.2289 - accuracy: 0.9667
Epoch 10/10
120/120 [==============================] - 0s 117us/step - loss: 0.2065 - accuracy: 0.9833
30/30 [==============================] - 0s 1ms/step
Test loss: 0.263040
Test accuracy: 0.966667

Như vậy là bài toán của chúng ta đã xong về mặt triển khai. Nhưng như vậy thì cụt quá nhở. Chúng ta hãy thêm thắt tý cho nó phong phú đa dạng nhở. Đi tiếp nhé!

Phần 3 – Đánh giá model qua Graph và các thông số Precision , Recall và F Score

VẼ ĐỒ THỊ LOSS VÀ ACCURACY

Bây giờ việc đầu tiên là ta sẽ in ra đồ thị Loss và Accuracy nhé. Để làm việc đó mình tăng số epoch lên 200 cho đồ thị nó đẹp:

 

# Train model
import matplotlib.pyplot as pyplot
history = model.fit(X_train, y_train, batch_size=32, epochs=200,validation_data=(X_test,y_test))

# plot loss và accuracy
pyplot.figure(figsize=(20,10))
pyplot.subplot(211)
pyplot.title('Loss')
pyplot.plot(history.history['loss'], label='train')
pyplot.plot(history.history['val_loss'], label='test')
pyplot.legend()
# plot accuracy during training
pyplot.subplot(212)
pyplot.title('Accuracy')
pyplot.plot(history.history['accuracy'], label='train')
pyplot.plot(history.history['val_accuracy'], label='test')
pyplot.legend()
pyplot.show()

Và đây là đồ thị này! Nhìn có vẻ chuyển nghiệp vê lờ anh em nhở =)). Chúng ta ko bàn về độ chính xác của model nhé, thực hành cách đánh giá thôi 🙂

TÍNH TOÁN CONFUSION MATIRIX, PRECISION, RECALL VÀ F1-SCORE

Rồi như vậy là loss và acc đã xong, bây giờ tính mấy cái món này cho nó có vẻ pờ rồ nào.

Mình nói có vẻ pro vì thư viện sklearn đã hỗ trợ khá tốt rồi, anh em chỉ cần gọi ra cho đúng là okie. Anh em nào cần tìm hiểu chi tiết các hàm thì có đây luôn

 

from sklearn.metrics import accuracy_score
from sklearn.metrics import precision_score
from sklearn.metrics import recall_score
from sklearn.metrics import f1_score
from sklearn.metrics import roc_auc_score
from sklearn.metrics import confusion_matrix

Đó, thư viện tận răng và bây giờ là gọi :

 

y_hat = model.predict(X_test)
y_pred = np.argmax(y_hat, axis=1)
y_test_label =  np.argmax(y_test, axis=1)


# Tính accuracy: (tp + tn) / (p + n)
accuracy = accuracy_score(y_test_label, y_pred)
print('Accuracy: %f' % accuracy)
# Tính precision tp / (tp + fp)
precision = precision_score(y_test_label, y_pred, average='macro')
print('Precision: %f' % precision)
# Tính recall: tp / (tp + fn)
recall = recall_score(y_test_label, y_pred, average='macro')
print('Recall: %f' % recall)
# Tính f1: 2 tp / (2 tp + fp + fn)
f1 = f1_score(y_test_label, y_pred, average='macro')
print('F1 score: %f' % f1)
# Tính Area under ROC
auc = roc_auc_score(y_test, y_hat, multi_class='ovr')
print('ROC AUC: %f' % auc)
# Tính confusion matrix
matrix = confusion_matrix(y_test_label, y_pred)
print(matrix)

Đoạn source trên anh em chú ý mấy điểm sau:

  • Hàm tính Acc, Precision, Recall và F1 mình dùng phương pháp trung bình macro nhé. Nếu anh em ko có tham số này nó sẽ phun ra cả 1 mảng với mỗi phần tử là giá trị cho 1 class. (one -vs-rest vì bài toán là multi classs)
  • Hàm roc_auc_score mình cũng thêm multi_class = ‘ovr’ là One-vs-rest để nó hiểu.

Và kết quả ngon lành cho anh em:

Accuracy: 0.933333
Precision: 0.944444
Recall: 0.939394
F1 score: 0.936364
ROC AUC: 0.993477
[[ 9  0  0]
 [ 0  9  2]
 [ 0  0 10]]

Đến bước này anh em lại thấy rằng cái Confusion matrix có vẻ chưa clear lắm, nhìn như này thì ai biết phán như nào. Okie! Ta lại vẽ nó ra cho trực quan:

import pandas as pd
import seaborn as sn
df_cm = pd.DataFrame(matrix, index = [i for i in "012"],
                  columns = [i for i in "012"])
pyplot.figure(figsize = (10,7))
sn.heatmap(df_cm, annot=True)

Ở đây ta dùng thư viện pandas và searborn để vẽ đồ thị Heatmap và kết quả đây rồi:

Rồi bây giờ thì rõ như ban ngày và phán thôi nhỉ?

  • Có tất cả 9 mẫu số 0 và được predict đúng hết vào class 0. Ngon!
  • Có tất cả 11 mẫu số 1 và được predict đúng 9 mẫu vào class 1 và 2 mẫu bị sai (predict vào class 2)
  • Tương tự, có 10 mẫu số 2 và predict đúng cả 😀

Kết luận, model ngon lành kaka!

Avatar
https://khoacntt.ntu.edu.vn/giang-vien/mai-cuong-tho

một GV Đại học. TiiL đã phụ trách một số môn học như: Lập trình Java, Phát triển web với Java, Lập trình thiết bị di động, Lập trình hệ thống nhúng và IoT.

Comments are closed.