• 首页
  • 归档
  • 分类
  • 标签
  • 关于

大模型实战-函数调用

https://github.com/openai/openai-cookbook/blob/main/examples/How_to_call_functions_with_chat_models.ipynbChat聊天:纯粹的Chat,像是一个主要由“大脑和嘴”构成的智能体,专注于信息处理和语言交流。比如ChatGPT这样的系统,它能够理解用户的查询,给出有用和连贯的回答,但它本身不直接执行任
2024-07-13
#LLM

大模型实战-文本分类和聚类

https://zhuanlan.zhihu.com/p/629024155 openai的completion与embedding接口1.Completion可以让模型根据用户的输入进行目动续写,Completion接口,一万面可以直接当作天机器人使用,另一方面,只要善用prompt提示词,就能完成文案撰写、文本摘要、机器翻译等工作2.Embedding可以将用户输入的文本转化成向量。Embed
2024-07-05

token介绍

引言https://platform.openai.com/tokenizerOpeA的大型语言模型(即GPT)使用标记处理文本,标记是一组文本中常见的字符序列。模型学习理解这些标记之间的统计关系,并擅长生成标记序列中的下一个标记。您可以使用相关工具来了解语言模型如何对一段文本进行标记,以及该段文本中标记的总数 token是什么在自然语言处理(NLP)中,token是指一组相关的字符序列,例如一个
2024-06-30
#LLM

GPT名称含义

generativeGenerative这个单词,揭示了Chat Gpt的本质就是一个词语接龙器。比如,问:今天天气很糟。GPT的工作是步骤是:1)检查句子是不是完整。假如我问的是:“今年天气很”,那么GPT的回答很可能是:很抱歉,您的信息不完整。2)把“今天天气很糟”作为输入,从众多中文字里面选出一个频率最高的单词,这里是“很”;3)然后把“今天天气很糟,很作为输入,得到今天天气很糟,很遗憾”;
2024-06-25
#LLM

embedding

将高维数据映射到低维空间。Embedding的最大价值是降维:在许多实际问题中,原始数据的维度往往非常高。例如,在自然语言处理中,如果使用One-hot编码来表示词汇,其维度等于词汇表的大小,可能达到数十万甚至更高。通过Embedding,我们可以将这些高维数据映射到一个低维空间,大大减少了模型的复杂度。
2024-06-24
#LLM

预训练语言模型

NLP语言模型发展一览深度学习阶段:encoder-decoder/word2vec/attention预训练模型阶段:transformer/bert/GPT-2/GPT-3,pre- training+fine-tuning大语言模型阶段:GPT3.5/GPT4,instruction-tuning/prompt-train
2024-06-19
#LLM

LLM调研

一 推荐场景Xu 等 - 2024 - Prompting Large Language Models for Recommender Sy.pdf 1 LLM作为推荐模型1)判别式推荐discriminative recommendation item scoring re-ranking tasks click-through rate prediction [tips]https://git
2024-03-19
#推荐 #LLM

agent for recommendation

When Large Language Model based Agent Meets User Behavior Analysis: A Novel User Simulation Paradigma profiling module, a memory module and an action module 用户配置文件包括ID、姓名、性别、年龄、特征、职业、兴趣和行为特征。 (Featu
2024-03-15
#推荐 #LLM
123

搜索

Hexo Fluid