论文解读: 2023-“Low-Resource” Text Classification: A Parameter-Free ClassificationMethod with Compressor
TitleLow-ResourceTextClassificationAParameter-FreeClassificationMethodwithCompressors UR
1 1
论文解读: 2019-GANs for Semi-Supervised Opinion Spam Detection
TitleGANsforSemi-SupervisedOpinionSpamDetection URLhttpsarxivorgabs19030828
1 1
论文解读: 2023-Investigating the Factual Knowledge Boundary of Large Language Models with Retrieval
TitleInvestigatingtheFactualKnowledgeBoundaryofLargeLanguageModelswithRetrievalAugme
1 1
tokenizer的切分粒度
在给模型输入文本之前首先对文本进行tokenize然后转化为ID再输入到模型之中 分词的目的是将输入文本分成一个个词元保证各个词元拥有相对完整和独立的语义便于学习embedding表达和后
1 1
ChatGPT-参数
ChatGPT就不必介绍了🔥到现在大家都了解介绍一下ChatGPTAPI中可以设置的参数类型 官网地址httpsplatformopenaicomdocsapi-ref
1 1
论文解读: 2018-Fake reviews detection based on LDA
TitleFakereviewsdetectionbasedonLDA URLhttpsieeexploreieeeorgabstractdocumen
1 1
论文解读: 2018-Detection of spam reviews: a sentiment analysis approach
TitleDetectionofspamreviewsasentimentanalysisapproach URLhttpslinkspringerc
1 1
论文解读: 2020-A deceptive review detection framework: Combination of coarse and fine-grained features
TitleAdeceptivereviewdetectionframeworkCombinationofcoarseandfine-grainedfeatures
1 2
半监督分类:co-training
协同学习co-training旨在利用未标记的数据来提高监督学习的性能它的基本思想是通过同时训练多个分类器利用它们之间的互补性来提供额外的信息从而改善模型的泛化能力 假设现在有数据集数
0 0
论文解读: 2023-Lost in the Middle: How Language Models Use Long Contexts
大模型使用的关键在于Prompt然而大模型存在幻觉现象如何减少这种现象的发生成为迫切解决的问题外部知识库LLM的方法可以缓解大模型幻觉但是如何撰写Prompt才能发挥LLM的性能下面介绍这
1 1
论文解读: 2023-ChatLaw: Open-Source Legal Large Language Model with Integrated External Knowledge Bases
最近大🔥的法律大模型Chatlaw成功出道在法律领域超过GPT-4 现在看一下他们的技术报告ChatLawOpen-SourceLegalLargeLanguageModelwit
1 1
Streamlit: Python可视化Web神器
Streamlithttpswwwstreamlitio是一个开源的Python库可以轻松创建用于机器学习和数据科学的精美自定义Web应用程序 官网https
0 0
Faiss简单使用
Faisshttpsgithubcomfacebookresearchfaiss是FacebookAIResearchhttpslinksjianshucom
1 1
z
z
z
z
主页
文章
云文档
讨论
留言墙
AI文档