上下文信息和完成文本都通过 OpenAI API 中的 completion 接口传递给 AI 模型进行处理。在计算 token 消耗数量时,消息(输入文本)、完成文本(输出文本)以及上下文信息都需要被考虑在内。因此,在设计输入文本和上下文时,需要根据模型的限制来控制文本长度,以确保它们的总长度不超过模型的最大上下文长度。
使用 OpenAI API 中的 completion 接口进行 AI 角色扮演时,prompt 内容也需要通过该接口传递给 AI 模型进行处理,并且在计算 token 消耗时也需要将其考虑在内。因此,您需要确保 prompt 的长度加上上下文信息的长度以及完成文本的长度不超过模型的最大上下文长度。这样可以确保您的请求可以成功处理,而且能够在可接受的时间内返回结果。