Đề 2 – Đề thi, câu hỏi trắc nghiệm online Xử lý ngôn ngữ tự nhiên

0

Bạn đã sẵn sàng chưa? 45 phút làm bài bắt đầu!!!

Bạn đã hết giờ làm bài! Xem kết quả các câu hỏi đã làm nhé!!!


Xử lý ngôn ngữ tự nhiên

Đề 2 - Đề thi, câu hỏi trắc nghiệm online Xử lý ngôn ngữ tự nhiên

1. Kỹ thuật nào sau đây thường được sử dụng để xử lý các từ không có trong từ vựng của mô hình (out-of-vocabulary words)?

A. Byte Pair Encoding (BPE) và WordPiece.
B. Stemming và lemmatization.
C. Part-of-speech tagging và named entity recognition.
D. Machine translation và text summarization.

2. Trong NLP, `TF-IDF` là viết tắt của cụm từ nào và nó được sử dụng để làm gì?

A. Term Frequency-Inverse Document Frequency, dùng để đánh giá tầm quan trọng của một từ trong một tài liệu so với toàn bộ tập tài liệu.
B. Text Feature-Independent Data Filter, dùng để loại bỏ các đặc trưng không liên quan trong văn bản.
C. Transformer-based Feature Integration for Document Similarity, dùng để tính độ tương đồng giữa các tài liệu.
D. Topic Frequency-Inverse Document Frequency, dùng để xác định tần suất xuất hiện của các chủ đề trong tài liệu.

3. Trong NLP, `Named Entity Recognition` (NER) là gì?

A. Xác định và phân loại các thực thể có tên trong văn bản, chẳng hạn như tên người, tổ chức, địa điểm.
B. Phân tích cấu trúc cú pháp của câu.
C. Tạo ra các biểu diễn vector của từ.
D. Dịch văn bản từ ngôn ngữ này sang ngôn ngữ khác.

4. Trong NLP, `zero-shot learning` đề cập đến điều gì?

A. Khả năng của mô hình để thực hiện một nhiệm vụ mà nó chưa từng được huấn luyện trực tiếp.
B. Việc sử dụng các mô hình nhỏ hơn để giảm chi phí tính toán.
C. Huấn luyện mô hình trên một tập dữ liệu không có nhãn.
D. Sử dụng ít tham số hơn trong mô hình.

5. Kỹ thuật nào sau đây được sử dụng để giải quyết vấn đề `vanishing gradients` trong mạng nơ-ron sâu, đặc biệt là trong các mô hình ngôn ngữ tuần hoàn (RNN)?

A. Backpropagation
B. Gradient Descent
C. Long Short-Term Memory (LSTM)
D. Convolutional Neural Networks (CNN)

6. Trong NLP, `backpropagation` là gì và nó được sử dụng để làm gì?

A. Một thuật toán để tính toán gradient của hàm mất mát (loss function) đối với các tham số của mô hình.
B. Một phương pháp để giảm số lượng tham số trong mô hình.
C. Một kỹ thuật để tăng cường dữ liệu huấn luyện.
D. Một phương pháp để đánh giá hiệu suất của mô hình.

7. Mục tiêu chính của việc sử dụng attention mechanism trong các mô hình sequence-to-sequence (ví dụ: trong dịch máy) là gì?

A. Cho phép mô hình tập trung vào các phần quan trọng nhất của chuỗi đầu vào khi tạo ra chuỗi đầu ra.
B. Giảm số lượng tham số trong mô hình để tăng tốc độ huấn luyện.
C. Chia nhỏ chuỗi đầu vào thành các phần nhỏ hơn để xử lý song song.
D. Tạo ra các biểu diễn vector của từ dựa trên ngữ cảnh của chúng.

8. Trong ngữ cảnh của chatbot, `dialogue management` đề cập đến điều gì?

A. Quản lý luồng hội thoại và quyết định phản hồi tiếp theo của chatbot.
B. Nhận dạng ý định của người dùng.
C. Tạo ra các phản hồi tự nhiên và phù hợp cho người dùng.
D. Phân tích cảm xúc của người dùng để điều chỉnh phản hồi.

9. Trong NLP, `chatbot` là gì và nó được sử dụng để làm gì?

A. Một chương trình máy tính được thiết kế để mô phỏng cuộc trò chuyện với con người.
B. Một công cụ để phân tích cấu trúc cú pháp của câu.
C. Một phương pháp để dịch văn bản từ ngôn ngữ này sang ngôn ngữ khác.
D. Một kỹ thuật để tóm tắt nội dung của một văn bản dài.

10. Trong lĩnh vực chatbot, mục tiêu chính của `intent recognition` là gì?

A. Xác định ý định hoặc mục tiêu của người dùng dựa trên đầu vào văn bản của họ.
B. Tạo ra các phản hồi tự nhiên và phù hợp cho người dùng.
C. Quản lý và duy trì trạng thái của cuộc trò chuyện.
D. Phân tích cảm xúc của người dùng để điều chỉnh phản hồi.

11. Kỹ thuật nào sau đây được sử dụng để tạo ra các biến thể khác nhau của một câu mà vẫn giữ nguyên ý nghĩa gốc?

A. Paraphrasing.
B. Stemming.
C. Part-of-speech tagging.
D. Named entity recognition.

12. Trong NLP, `transfer learning` đề cập đến điều gì?

A. Việc sử dụng một mô hình đã được huấn luyện trên một tập dữ liệu lớn để cải thiện hiệu suất trên một tập dữ liệu nhỏ hơn.
B. Việc chuyển đổi dữ liệu từ định dạng này sang định dạng khác.
C. Việc sử dụng các mô hình nhỏ hơn để giảm chi phí tính toán.
D. Việc huấn luyện mô hình trên nhiều ngôn ngữ khác nhau.

13. Transformer models sử dụng cơ chế self-attention để làm gì?

A. Tính toán trọng số cho mỗi từ trong câu dựa trên mối quan hệ của nó với các từ khác trong câu.
B. Tạo ra các biểu diễn vector của từ dựa trên ngữ cảnh của chúng.
C. Chia nhỏ câu thành các cụm từ nhỏ hơn để xử lý song song.
D. Giảm số lượng tham số trong mô hình để tăng tốc độ huấn luyện.

14. Trong ngữ cảnh của các mô hình ngôn ngữ lớn (LLMs), `few-shot learning` đề cập đến điều gì?

A. Khả năng của mô hình để học một nhiệm vụ mới chỉ với một vài ví dụ.
B. Việc sử dụng các mô hình nhỏ hơn để giảm chi phí tính toán.
C. Huấn luyện mô hình trên một tập dữ liệu nhỏ.
D. Sử dụng ít tham số hơn trong mô hình.

15. Trong NLP, `POS tagging` là viết tắt của cụm từ nào và nó có chức năng gì?

A. Part-of-speech tagging, dùng để gán nhãn từ loại (ví dụ: danh từ, động từ, tính từ) cho mỗi từ trong câu.
B. Pattern-of-sentence tagging, dùng để xác định cấu trúc cú pháp của câu.
C. Phrase-of-speech tagging, dùng để phân tích các cụm từ quan trọng trong câu.
D. Precision-oriented sentence tagging, dùng để đánh giá độ chính xác của việc phân tích câu.

16. Trong lĩnh vực NLP, kỹ thuật nào thường được dùng để phân tích cảm xúc (sentiment analysis) của một đoạn văn bản?

A. Sử dụng các mô hình học máy hoặc các từ điển cảm xúc để xác định thái độ (tích cực, tiêu cực, trung tính) của văn bản.
B. Phân tích cấu trúc cú pháp của câu.
C. Dịch văn bản từ ngôn ngữ này sang ngôn ngữ khác.
D. Tóm tắt nội dung của một văn bản dài.

17. Mục tiêu chính của việc sử dụng Conditional Random Fields (CRF) trong NLP là gì?

A. Dự đoán xác suất của một chuỗi nhãn cho một chuỗi đầu vào.
B. Phân cụm các văn bản dựa trên nội dung.
C. Tạo ra các biểu diễn vector của từ.
D. Phân tích cấu trúc cú pháp của câu.

18. Phương pháp nào sau đây thường được sử dụng để đánh giá chất lượng của một mô hình tạo văn bản (text generation)?

A. ROUGE (Recall-Oriented Understudy for Gisting Evaluation).
B. BLEU (Bilingual Evaluation Understudy).
C. Perplexity.
D. F1-score.

19. Mục tiêu của `coreference resolution` trong NLP là gì?

A. Xác định tất cả các đề cập (mentions) đến cùng một thực thể trong một văn bản.
B. Phân tích cấu trúc cú pháp của câu.
C. Dịch văn bản từ ngôn ngữ này sang ngôn ngữ khác.
D. Tóm tắt nội dung của một văn bản dài.

20. Sự khác biệt chính giữa `stemming` và `lemmatization` trong NLP là gì?

A. Lemmatization đưa từ về dạng gốc có nghĩa (lemma), trong khi stemming có thể tạo ra các dạng không có nghĩa.
B. Stemming sử dụng từ điển để tìm dạng gốc, trong khi lemmatization sử dụng các quy tắc.
C. Stemming nhanh hơn lemmatization, nhưng lemmatization chính xác hơn.
D. Stemming chỉ loại bỏ hậu tố, trong khi lemmatization thay đổi cả tiền tố và hậu tố.

21. Mô hình ngôn ngữ BERT (Bidirectional Encoder Representations from Transformers) cải tiến so với các mô hình trước đó như Word2Vec và GloVe như thế nào?

A. BERT xem xét ngữ cảnh hai chiều của từ (trước và sau) thay vì chỉ một chiều.
B. BERT sử dụng ít tham số hơn, giúp huấn luyện nhanh hơn.
C. BERT chỉ có thể xử lý các câu ngắn, trong khi Word2Vec và GloVe có thể xử lý các đoạn văn bản dài.
D. BERT không yêu cầu dữ liệu huấn luyện có nhãn.

22. Trong ngữ cảnh của Word2Vec, sự khác biệt chính giữa mô hình CBOW (Continuous Bag-of-Words) và Skip-gram là gì?

A. CBOW dự đoán từ mục tiêu từ các từ xung quanh, trong khi Skip-gram dự đoán các từ xung quanh từ từ mục tiêu.
B. CBOW sử dụng negative sampling, trong khi Skip-gram sử dụng hierarchical softmax.
C. CBOW huấn luyện nhanh hơn Skip-gram, nhưng Skip-gram hiệu quả hơn với các từ hiếm.
D. CBOW bỏ qua các từ dừng, trong khi Skip-gram giữ lại tất cả các từ.

23. Trong NLP, `perplexity` là gì và nó được sử dụng để làm gì?

A. Đo lường mức độ `bất ngờ` của một mô hình ngôn ngữ khi gặp một chuỗi văn bản mới.
B. Đánh giá độ tương đồng giữa hai đoạn văn bản.
C. Phân tích cấu trúc cú pháp của câu.
D. Dịch văn bản từ ngôn ngữ này sang ngôn ngữ khác.

24. Kỹ thuật nào sau đây thường được sử dụng để giảm thiểu bias trong các mô hình NLP?

A. Data augmentation và adversarial training.
B. Stemming và lemmatization.
C. Part-of-speech tagging và named entity recognition.
D. Machine translation và text summarization.

25. Kỹ thuật `stemming` trong NLP có chức năng gì?

A. Rút gọn các từ về dạng gốc của chúng bằng cách loại bỏ các hậu tố.
B. Phân tích cấu trúc cú pháp của câu.
C. Chuyển đổi văn bản thành chữ thường.
D. Loại bỏ các từ dừng (stop words).

26. Phương pháp nào sau đây thường được sử dụng để đánh giá hiệu suất của một mô hình dịch máy?

A. BLEU (Bilingual Evaluation Understudy)
B. ROUGE (Recall-Oriented Understudy for Gisting Evaluation)
C. Perplexity
D. F1-score

27. Phương pháp nào sau đây thường được sử dụng để tạo ra các biểu diễn vector của câu hoặc đoạn văn bản?

A. Sentence embeddings (ví dụ: Sentence-BERT).
B. Word embeddings (ví dụ: Word2Vec).
C. TF-IDF.
D. Bag-of-words.

28. Trong lĩnh vực NLP, `semantic similarity` được sử dụng để làm gì?

A. Đo lường mức độ tương đồng về ý nghĩa giữa hai đoạn văn bản.
B. Phân tích cấu trúc cú pháp của câu.
C. Dịch văn bản từ ngôn ngữ này sang ngôn ngữ khác.
D. Tóm tắt nội dung của một văn bản dài.

29. Kỹ thuật nào sau đây thường được sử dụng để tóm tắt văn bản tự động?

A. Extractive summarization và abstractive summarization.
B. Stemming và lemmatization.
C. Part-of-speech tagging và named entity recognition.
D. Machine translation và text generation.

30. Trong xử lý ngôn ngữ tự nhiên (NLP), kỹ thuật nào thường được sử dụng để giảm số lượng chiều của dữ liệu văn bản, đồng thời giữ lại thông tin quan trọng?

A. Phân tích cú pháp (Parsing)
B. Mô hình hóa chủ đề (Topic Modeling)
C. Biểu diễn word embedding (Word embedding)
D. Gán nhãn từ loại (Part-of-speech tagging)

1 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

1. Kỹ thuật nào sau đây thường được sử dụng để xử lý các từ không có trong từ vựng của mô hình (out-of-vocabulary words)?

2 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

2. Trong NLP, 'TF-IDF' là viết tắt của cụm từ nào và nó được sử dụng để làm gì?

3 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

3. Trong NLP, 'Named Entity Recognition' (NER) là gì?

4 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

4. Trong NLP, 'zero-shot learning' đề cập đến điều gì?

5 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

5. Kỹ thuật nào sau đây được sử dụng để giải quyết vấn đề 'vanishing gradients' trong mạng nơ-ron sâu, đặc biệt là trong các mô hình ngôn ngữ tuần hoàn (RNN)?

6 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

6. Trong NLP, 'backpropagation' là gì và nó được sử dụng để làm gì?

7 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

7. Mục tiêu chính của việc sử dụng attention mechanism trong các mô hình sequence-to-sequence (ví dụ: trong dịch máy) là gì?

8 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

8. Trong ngữ cảnh của chatbot, 'dialogue management' đề cập đến điều gì?

9 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

9. Trong NLP, 'chatbot' là gì và nó được sử dụng để làm gì?

10 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

10. Trong lĩnh vực chatbot, mục tiêu chính của 'intent recognition' là gì?

11 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

11. Kỹ thuật nào sau đây được sử dụng để tạo ra các biến thể khác nhau của một câu mà vẫn giữ nguyên ý nghĩa gốc?

12 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

12. Trong NLP, 'transfer learning' đề cập đến điều gì?

13 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

13. Transformer models sử dụng cơ chế self-attention để làm gì?

14 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

14. Trong ngữ cảnh của các mô hình ngôn ngữ lớn (LLMs), 'few-shot learning' đề cập đến điều gì?

15 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

15. Trong NLP, 'POS tagging' là viết tắt của cụm từ nào và nó có chức năng gì?

16 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

16. Trong lĩnh vực NLP, kỹ thuật nào thường được dùng để phân tích cảm xúc (sentiment analysis) của một đoạn văn bản?

17 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

17. Mục tiêu chính của việc sử dụng Conditional Random Fields (CRF) trong NLP là gì?

18 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

18. Phương pháp nào sau đây thường được sử dụng để đánh giá chất lượng của một mô hình tạo văn bản (text generation)?

19 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

19. Mục tiêu của 'coreference resolution' trong NLP là gì?

20 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

20. Sự khác biệt chính giữa 'stemming' và 'lemmatization' trong NLP là gì?

21 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

21. Mô hình ngôn ngữ BERT (Bidirectional Encoder Representations from Transformers) cải tiến so với các mô hình trước đó như Word2Vec và GloVe như thế nào?

22 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

22. Trong ngữ cảnh của Word2Vec, sự khác biệt chính giữa mô hình CBOW (Continuous Bag-of-Words) và Skip-gram là gì?

23 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

23. Trong NLP, 'perplexity' là gì và nó được sử dụng để làm gì?

24 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

24. Kỹ thuật nào sau đây thường được sử dụng để giảm thiểu bias trong các mô hình NLP?

25 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

25. Kỹ thuật 'stemming' trong NLP có chức năng gì?

26 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

26. Phương pháp nào sau đây thường được sử dụng để đánh giá hiệu suất của một mô hình dịch máy?

27 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

27. Phương pháp nào sau đây thường được sử dụng để tạo ra các biểu diễn vector của câu hoặc đoạn văn bản?

28 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

28. Trong lĩnh vực NLP, 'semantic similarity' được sử dụng để làm gì?

29 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

29. Kỹ thuật nào sau đây thường được sử dụng để tóm tắt văn bản tự động?

30 / 30

Category: Xử lý ngôn ngữ tự nhiên

Tags: Bộ đề 2

30. Trong xử lý ngôn ngữ tự nhiên (NLP), kỹ thuật nào thường được sử dụng để giảm số lượng chiều của dữ liệu văn bản, đồng thời giữ lại thông tin quan trọng?