Page 128 - Kỷ yếu hội thảo quốc tế: Ứng dụng công nghệ mới trong công trình xanh - lần thứ 9 (ATiGB 2024)
P. 128
th
HỘI THẢO QUỐC TẾ ATiGB LẦN THỨ CHÍN - The 9 ATiGB 2024 119
như cảm biến nhiệt độ, độ ẩm, ánh sáng hoặc con thể được vận hành trên các thiết bị có bộ xử lý và bộ
quay hồi chuyển, gia tốc kế… Một kỹ thuật khác để nhớ hạn chế. Điều này cho phép kết hợp khả năng học
tối ưu hóa khối lượng công việc học máy dựa trên máy vào nhiều loại thiết bị, tạo ra các ứng dụng mới
việc sử dụng Bộ xử lý Tensor (Tensor Processing và tăng cường trải nghiệm người dùng. Nén mô hình
Unit-TPU). TPU là một công cụ tăng tốc AI được xây học máy là một phương pháp giúp giảm kích thước
dựng tùy chỉnh do Google thiết kế để thực hiện các của mô hình mà vẫn đảm bảo nhu cầu xử lý, phương
phép tính ma trận hiệu quả cao: nền tảng của nhiều pháp này có thể giảm 20% đến 30% dung lượng cần
thuật toán học máy. TPU có thể tăng tốc đáng kể việc thiết để lưu trữ, một số cách nén phổ biến:
đào tạo và suy luận mô hình học máy, giảm thời gian • Cắt tỉa (Pruning)
và chi phí cần thiết để tạo ra các mô hình chính xác.
TPU tại biên là một dạng TPU do Google phát triển Phương pháp cắt tỉa chủ yếu tập trung vào việc
dành riêng để chạy các mẫu TinyML với hiệu suất huấn luyện mô hình cây quyết định trên tập dữ liệu
cao và mức tiêu thụ điện năng tối thiểu. huấn luyện để tất cả các quan sát được phân loại đúng
nhãn. Sau đó, các node lá phía dưới dần dần bị loại bỏ
và node cha trực tiếp của chúng được chuyển thành
node lá. Các node lá chỉ bị loại bỏ khi độ chính xác
dự báo trên tập dữ liệu kiểm định được cải thiện. Quá
trình này sẽ dừng lại khi độ chính xác trên tập kiểm
tra không còn cải thiện thêm.
• Lượng tử hóa (Quantization)
Lượng tử hóa được dùng để giảm số bit được sử
dụng để lưu trữ trọng số và độ lệch của mô hình,
thông thường sẽ giảm từ dấy phẩy động (floating-
point) 32 bit hoặc 64 bit xuống còn 8 bit hoặc 4 bit
dấu phẩy tĩnh (fixed-point). Nếu lượng tử hóa xuống
Hình 4. Cấu hình phần cứng kit phát triển tinyML. 4 bit có thể làm giảm kích thước của mô hình xuống 4
2.1.1. Điểm hạn chế về sự đồng nhất lần nhưng có thể làm giảm đáng kể độ chính xác của
Hệ thống TinyML phát triển dựa trên tính kế thừa mô hình đó. Lượng tử hóa có thể được thực hiện trong
phần cứng của IoT, chính vì vậy có rất nhiều kiến trúc hoặc sau khi huấn luyện mô hình với mục tiêu là cân
chip nhúng khác nhau đang được sử dụng (như hình bằng sự chính xác của mô hình và sự chính xác của
4), các nhà cung cấp có những hướng dẫn riêng về trọng số (weight) và hàm kích hoạt (activation) trong
cấu hình và trình biên dịch, các tập lệnh thường mạng nơ-ron.
không tương thích nhau ngay cả trong các phiên bản • Mã hóa Huffman
của một nhà cung cấp. Sự không đồng nhất này bó Mã hóa Huffman là một phương pháp nén không
hẹp phạm vi nghiên cứu là thách thức của các lập làm mất mát dữ liệu, sau khi nén dữ liệu thì hoàn toàn
trình viên mới khi phải làm quen với các nền tảng có thể khôi phục dữ liệu chính xác về trạng thái ban
khác nhau (vẫn phải đảm bảo hiệu năng tính toán, đặc đầu mà không bị mất thông tin. Mã hóa Huffman hoạt
biệt là khả năng điều khiển thời gian thực và tiết kiệm động bằng cách gán mã nhị phân cho từng ký hiệu
năng lượng) đây là rào cản bước đầu khi tiếp cận với trong tập dữ liệu, với mã ngắn hơn cho các ký hiệu
TinyML.
xuất hiện thường xuyên và mã dài hơn cho các ký
2.1.2. Điểm hạn chế về tài nguyên hiệu ít xuất hiện hơn. Ưu điểm của phương pháp này
Một hệ quả khác phải tính đến đó là các chip là các ký hiệu xuất hiện thường xuyên hơn trong dữ
nhúng có tài nguyên hạn chế với bộ nhớ nhỏ, xung liệu sẽ chiếm ít không gian hơn nếu chúng được biểu
nhịp thấp, điều này làm việc thiết kế thư viện và các thị bằng mã ngắn hơn.
tác vụ trở nên càng khắt khe hơn. Quá trình triển khai
TinyML phải đảm bảo tối ưu hóa về tài nguyên mà
vẫn đảm bảo độ chính xác trong tính toán cần các lập
trình viên có nhiều kinh nghiệm.
2.2. Đặc trưng phần mềm
Có thể nói, phát triển TinyML chủ yếu dựa vào
phần mềm để cho phép triển khai các mô hình học
máy trên phần cứng có tài nguyên hạn chế. Bởi vì
phần mềm cho phép nén và tối ưu hóa kích thước mô Hình 5. Chu trình phần mềm khi triển khai TinyML
hình và nhu cầu tính toán, các mô hình học máy có
ISBN: 978-604-80-9779-0