Page 128 - Kỷ yếu hội thảo quốc tế: Ứng dụng công nghệ mới trong công trình xanh - lần thứ 9 (ATiGB 2024)
P. 128

th
               HỘI THẢO QUỐC TẾ ATiGB LẦN THỨ CHÍN - The 9  ATiGB 2024                                 119

               như  cảm  biến  nhiệt  độ,  độ  ẩm,  ánh  sáng  hoặc  con   thể được vận hành trên các thiết bị có bộ xử lý và bộ
               quay hồi chuyển, gia tốc kế… Một kỹ thuật khác để   nhớ hạn chế. Điều này cho phép kết hợp khả năng học
               tối  ưu  hóa  khối  lượng  công  việc  học  máy  dựa  trên   máy vào nhiều loại thiết bị, tạo ra các ứng dụng mới
               việc  sử  dụng  Bộ  xử  lý  Tensor  (Tensor  Processing   và tăng cường trải nghiệm người dùng. Nén mô hình
               Unit-TPU). TPU là một công cụ tăng tốc AI được xây   học máy là một phương pháp giúp giảm kích thước
               dựng tùy chỉnh do Google thiết kế để thực hiện các   của mô hình mà vẫn đảm bảo nhu cầu xử lý, phương
               phép tính ma trận hiệu quả cao: nền tảng của nhiều   pháp này có thể giảm 20% đến 30% dung lượng cần
               thuật toán học máy. TPU có thể tăng tốc đáng kể việc   thiết để lưu trữ, một số cách nén phổ biến:
               đào tạo và suy luận mô hình học máy, giảm thời gian   • Cắt tỉa (Pruning)
               và chi phí cần thiết để tạo ra các mô hình chính xác.
               TPU tại biên là một dạng TPU do Google phát triển   Phương  pháp  cắt  tỉa  chủ  yếu  tập  trung  vào  việc
               dành  riêng  để  chạy  các  mẫu  TinyML  với  hiệu  suất   huấn luyện mô hình cây quyết định trên tập dữ liệu
               cao và mức tiêu thụ điện năng tối thiểu.       huấn luyện để tất cả các quan sát được phân loại đúng
                                                              nhãn. Sau đó, các node lá phía dưới dần dần bị loại bỏ
                                                              và node cha trực tiếp của chúng được chuyển thành
                                                              node lá. Các node lá chỉ bị loại bỏ khi độ chính xác
                                                              dự báo trên tập dữ liệu kiểm định được cải thiện. Quá
                                                              trình này sẽ dừng lại khi độ chính xác trên tập kiểm
                                                              tra không còn cải thiện thêm.
                                                                 • Lượng tử hóa (Quantization)
                                                                 Lượng tử hóa được dùng để giảm số bit được sử
                                                              dụng  để  lưu  trữ  trọng  số  và  độ  lệch  của  mô  hình,
                                                              thông  thường  sẽ  giảm  từ  dấy  phẩy  động  (floating-
                                                              point) 32 bit hoặc 64 bit xuống còn 8 bit hoặc 4 bit
                                                              dấu phẩy tĩnh (fixed-point). Nếu lượng tử hóa xuống
                 Hình 4. Cấu hình phần cứng kit phát triển tinyML.   4 bit có thể làm giảm kích thước của mô hình xuống 4
                  2.1.1. Điểm hạn chế về sự đồng nhất         lần nhưng có thể làm giảm đáng kể độ chính xác của
                  Hệ thống TinyML phát triển dựa trên tính kế thừa   mô hình đó. Lượng tử hóa có thể được thực hiện trong
               phần cứng của IoT, chính vì vậy có rất nhiều kiến trúc   hoặc sau khi huấn luyện mô hình với mục tiêu là cân
               chip nhúng khác nhau đang được sử dụng (như hình   bằng sự chính xác của mô hình và sự chính xác của
               4),  các  nhà  cung  cấp  có  những  hướng dẫn  riêng  về   trọng số (weight) và hàm kích hoạt (activation) trong
               cấu  hình  và  trình  biên  dịch,  các  tập  lệnh  thường   mạng nơ-ron.
               không tương thích nhau ngay cả trong các phiên bản   • Mã hóa Huffman
               của  một nhà  cung  cấp.  Sự  không  đồng nhất  này  bó   Mã hóa Huffman là một phương pháp nén không
               hẹp  phạm  vi  nghiên  cứu  là  thách  thức  của  các  lập   làm mất mát dữ liệu, sau khi nén dữ liệu thì hoàn toàn
               trình  viên  mới  khi  phải  làm  quen  với  các  nền  tảng   có thể khôi phục dữ liệu chính xác về trạng thái ban
               khác nhau (vẫn phải đảm bảo hiệu năng tính toán, đặc   đầu mà không bị mất thông tin. Mã hóa Huffman hoạt
               biệt là khả năng điều khiển thời gian thực và tiết kiệm   động  bằng  cách  gán  mã  nhị  phân  cho  từng  ký  hiệu
               năng lượng) đây là rào cản bước đầu khi tiếp cận với   trong tập dữ liệu, với mã ngắn hơn cho các ký hiệu
               TinyML.
                                                              xuất  hiện  thường  xuyên  và  mã  dài  hơn  cho  các  ký
                  2.1.2. Điểm hạn chế về tài nguyên           hiệu ít xuất hiện hơn. Ưu điểm của phương pháp này
                  Một  hệ  quả  khác  phải  tính  đến  đó  là  các  chip   là các ký hiệu xuất hiện thường xuyên hơn trong dữ
               nhúng có tài nguyên hạn chế  với bộ nhớ nhỏ, xung   liệu sẽ chiếm ít không gian hơn nếu chúng được biểu
               nhịp thấp, điều này làm việc thiết kế thư viện và các   thị bằng mã ngắn hơn.
               tác vụ trở nên càng khắt khe hơn. Quá trình triển khai
               TinyML phải đảm bảo tối ưu hóa về tài nguyên mà
               vẫn đảm bảo độ chính xác trong tính toán cần các lập
               trình viên có nhiều kinh nghiệm.
                  2.2. Đặc trưng phần mềm
                  Có  thể  nói,  phát  triển  TinyML  chủ  yếu  dựa  vào
               phần  mềm  để  cho  phép  triển  khai  các  mô  hình  học
               máy  trên  phần  cứng  có  tài  nguyên  hạn  chế.  Bởi  vì
               phần mềm cho phép nén và tối ưu hóa kích thước mô   Hình 5. Chu trình phần mềm khi triển khai TinyML
               hình và nhu cầu tính toán, các mô hình học máy có
                                                                                   ISBN: 978-604-80-9779-0
   123   124   125   126   127   128   129   130   131   132   133