SEQUENTIAL MODEL-BASED OPTIMIZATION FOR NATURAL LANGUAGE PROCESSING DATA PIPELINE SELECTION AND OPTIMIZATION
การเพิ่มประสิทธิภาพของการประมวลผลภาษาธรรมชาติโดยการใช้แบบจำลองข้อมูลในการเลือกตัวแปรทั้งลำดับของขั้นตอนและกระบวนการ
by Piyadanai Arntong; ปิยะดนัย อานทอง; Worapol Pongpech; วรพล พงษ์เพ็ชร
Title: | SEQUENTIAL MODEL-BASED OPTIMIZATION FOR NATURAL LANGUAGE PROCESSING DATA PIPELINE SELECTION AND OPTIMIZATION การเพิ่มประสิทธิภาพของการประมวลผลภาษาธรรมชาติโดยการใช้แบบจำลองข้อมูลในการเลือกตัวแปรทั้งลำดับของขั้นตอนและกระบวนการ |
Advisor: | Worapol Pongpech
วรพล พงษ์เพ็ชร |
Issued date: | 7/1/2022 |
Publisher: | National Institute of Development Administration |
Abstract: |
Natural language processing (NLP) aims to analyze a large amount of natural language data. The NLP computes textual data via a set of data processing elements which is sequentially connected to a path data pipeline. Several data pipelines exist for a given set of textual data with various degrees of model accuracy. Instead of trying all the possible paths, such as random search or grid search to find an optimal path, we utilized the Bayesian optimization to search along with the space of hyper-parameters learning. In this study, we proposed a data pipeline selection for NLP using Sequential Model-based Optimization (SMBO). We implemented the SMBO for the NLP data pipeline using Hyperparameter Optimization (Hyperopt) library with Tree of Parzen Estimators (TPE) model and Adaptive Tree of Parzen Estimators (A-TPE) model for a surface model with expected improvement (EI) acquired function. |
Keyword(s): | การประมวลผลภาษาธรรมชาติ
Sequential Model-based Optimization Tree of Parzen Estimators Natural language processing Sequential Model-based Optimization Tree of Parzen Estimators |
Type: | Text |
Language: | tha |
URI: | https://repository.nida.ac.th/handle/662723737/5851 |
Files in this item (CONTENT) |
|
View ทรัพยากรสารสนเทศทั้งหมดในคลังปัญญา ใช้เพื่อประโยชน์ทางการเรียนการสอนและการค้นคว้าเท่านั้น และต้องมีการอ้างอิงแหล่งที่มาทุกครั้งที่นำไปใช้ ห้ามดัดแปลงเนื้อหา และทำสำเนาต่อ รวมถึงไม่ให้อนุญาตนำไปใช้ประโยชน์เพื่อการค้า ไม่ว่ากรณีใด ๆ ทั้งสิ้น
|
This item appears in the following Collection(s) |
|