Chatbot

聊天机器人和虚拟助手等对话界面可以通过自然语言交互来增强用户体验。他们使用自然语言处理 (NLP) 和机器学习来理解和响应用户查询。聊天机器人用途广泛,可为客户服务、销售、电子商务等领域的对话提供支持。

没有上下文的chat

import boto3
import json

client = boto3.client(service_name='bedrock-runtime', region_name="us-west-2")

def get_configuration(prompt:str):
    return json.dumps({
            "inputText": prompt,
            "textGenerationConfig": {
                "maxTokenCount": 4096,
                "stopSequences": [],
                "temperature": 0,
                "topP": 1
            }
    })

print(
    "Bot: Hello! I am a chatbot. I can help you with anything you want to talk about."
)

while True:
    user_input = input("User: ")
    if user_input.lower() == "exit":
        break
    response = client.invoke_model(
        body=get_configuration(user_input),
        modelId="amazon.titan-text-express-v1",
        accept="application/json",
        contentType="application/json")
    response_body = json.loads(response.get('body').read())
    print(response_body.get('results')[0].get('outputText'))

当提问第二个问题时,由于Titan不知道上一个问题的背景,所以回答不上来:

image-20241115140514075

使用数组保存上下文

为了解决上面的问题,可以使用一个数组保存上下文,传递给Titan:

import boto3
import json

client = boto3.client(service_name='bedrock-runtime', region_name="us-west-2")

history = []

def get_history():
    return "\n".join(history)

def get_configuration():
    return json.dumps({
            "inputText": get_history(),
            "textGenerationConfig": {
                "maxTokenCount": 4096,
                "stopSequences": [],
                "temperature": 0,
                "topP": 1
            }
    })

print(
    "Bot: Hello! I am a chatbot. I can help you with anything you want to talk about."
)

while True:
    user_input = input("User: ")
    history.append("User: " + user_input)
    if user_input.lower() == "exit":
        break
    response = client.invoke_model(
        body=get_configuration(),
        modelId="amazon.titan-text-express-v1",
        accept="application/json",
        contentType="application/json")
    response_body = json.loads(response.get('body').read())
    output_text = response_body.get('results')[0].get('outputText').strip()
    print(output_text)
    history.append(output_text)

image-20241115145034680

总结:虽然 InvokeModel 不直接支持多轮对话,但可以通过在应用层面管理对话历史,并在每次调用时将相关上下文包含在提示中来模拟对话功能。这种方法虽然灵活,但可能不如使用专门的 Converse API 高效和方便。