[BERT Series] Chương 3. Thử nhận diện cảm xúc văn bản Tiếng Việt với PhoBert (Cách #1)
Hi anh em, hôm nay chúng ta sẽ trở lại với series về BERT với bài toán Thử nhận diện cảm xúc văn bản Tiếng Việt với PhoBert. Trong 2 bài trước, mình đã cùng các bạn tìm hiểu về BERT. Bạn nào chưa xem thì có thể xem lại tại đây [BERT Series] Chương…
[BERT Series] Chương 2. Nghịch một chút với Hugging Face
Chào các anh em, hôm nay chúng ta sẽ cùng tìm hiểu về thư viện Hugging Face – một món đồ bá đạo giúp chúng ta làm các task NLP vô cùng đơn giản và dễ dàng. Hugging Face với slogan của nó là ” On a mission to solve NLP,one commit at a…
[BERT Series] Chương 1. BERT là cái chi chi?
Chào tuần mới toàn thể anh em Mì AI, sau khi đã tìm hiểu về Transformer tại đây, hôm nay chúng ta sẽ tìm hiểu về BERT (Bidirectional Encoder Representations from Transformers), một SOTA trong làng NLP nhé. Thực ra bài viết về BERT trên mạng cũng rất…
Mì Transformer – tìm hiểu transformer theo cách dễ hiểu, dễ nhớ!
Chào các bạn, hôm nay chúng ta sẽ cùng tìm hiểu về mạng Transformer, một món SOTA trong làng xử lý ngôn ngữ tự nhiên. Nó rất hay nhưng kiến trúc cũng khá trừu tượng với phương châm “Attention is all we need” (ta chỉ cần Attention là đủ) Link…