Transformer实战(21)——文本表示(Text Representation)0. 前言1. 句子嵌入2. Cross-encoder 与 Bi-encoder 对比3. 基准测试句子相似度模型4. 使用 BART 进行零样本学习小结系列链接0. 前言我们已经学习了如何使用transformers库解决分类和生成问题。文本表示 (Text Representation) 是现代自然语言处理 (Natural Language Processing,NLP) 中的另一个关键任务,特别是对于无监督任务,如聚类、语义搜索和主题建模。在本节中,将介绍如何通过使用不同的模型)如通用句子编码器 (Universal Sentence Encoder,USE) 和Sentence-BERT(SBERT) 以及附加框架(如SentenceTransformers)来表示句子,还将解释如何使用BART进行零样本学习。1. 句子嵌入预训练的BERT模型并不能直接生成高效且独立的句子嵌入,因为它们需要在端到端的监督设置下进行微调。我们可以把预训练的BERT模型视为一个不可分割的整体,语义分布在所有网络层中,而不仅仅是最后一层。如果没有进行微调,单独使