OpenAI の公式 Python ライブラリで Assistants stream API を使う方法についてです。
stream API 自体は前からあったようですが、 Python の関数は openai
v1.14.0 で追加されました。
- Release v1.14.0 · openai/openai-python
- feat(assistants): add support for streaming by stainless-bot · Pull Request #1233 · openai/openai-python
前提
- Python
>=3.12
- すでに assistant を作成済み
私は macOS 上で実行しました。 他の OS でも同じコードが使えそうですが確認していません。
準備
venv を作って PyPI パッケージ openai
をインストールします。
# venv を作成して有効化:
python -m venv .venv
. .venv/bin/activate
# `openai` をインストール:
pip install "openai=1.14.0"
実行する
次のスクリプトを次の 2 か所編集して保存します。
ASSISTANT_ID
: 作成済みの assistant の ID を取得して入れてください。MESSAGE
: 投げかけたいメッセージのテキストを入れてください。
openai_assistants_stream.py
:
"""OpenAI の Assistant stream API を使う
Usage:
python -m pip install 'openai==1.14.0'
export OPENAI_API_KEY='...'
python openai_assistant_stream.py
See: https://platform.openai.com/docs/assistants/overview?context=with-streaming
"""
from openai import AssistantEventHandler
import os
import sys
from pathlib import Path
from typing import override
from openai import OpenAI
ASSISTANT_ID = "..."
MESSAGE = "..."
FILE_OUT = Path(__file__).resolve().parent / "out.txt"
def main():
if "OPENAI_API_KEY" not in os.environ:
sys.exit("Environment variable `OPENAI_API_KEY` is required.")
client = OpenAI()
# assistant と thread を作成:
assistant = client.beta.assistants.retrieve(ASSISTANT_ID)
thread = client.beta.threads.create()
# thread に user message を送る:
client.beta.threads.messages.create(
thread_id=thread.id,
role="user",
content=MESSAGE,
)
# Assistant stream を利用:
with client.beta.threads.runs.create_and_stream(
thread_id=thread.id,
assistant_id=assistant.id,
event_handler=EventHandler(),
) as stream:
# 返ってきた回答が標準出力に出力される
stream.until_done()
# メタ情報の確認と全文の保存の準備:
final_messages = stream.get_final_messages()
run = stream.get_final_run()
response = final_messages[0].content[0].text.value
# メタ情報を stderr に出力:
eprint(f"Assistant ID: {run.assistant_id=}")
eprint(f"Run ID: {run.id=}")
eprint(f"Thread ID: {run.thread_id=}")
eprint(f"Model: {run.model=}")
eprint(f"Status: {run.status=}")
eprint(f"Usage: {run.usage=}")
# 回答をファイルに保存:
FILE_OUT.write_text(response)
eprint(f"File saved: {FILE_OUT}")
def eprint(msg):
print(msg, file=sys.stderr)
class EventHandler(AssistantEventHandler):
@override
def on_text_created(self, text) -> None:
print("\nassistant > ", end="", flush=True)
@override
def on_text_delta(self, delta, snapshot):
print(delta.value, end="", flush=True)
@override
def on_tool_call_created(self, tool_call):
print(f"\nassistant > {tool_call.type}\n", flush=True)
@override
def on_tool_call_delta(self, delta, snapshot):
if delta.type == 'code_interpreter':
if delta.code_interpreter.input:
print(delta.code_interpreter.input, end="", flush=True)
if delta.code_interpreter.outputs:
print("\n\noutput >", flush=True)
for output in delta.code_interpreter.outputs:
if output.type == "logs":
print(f"\n{output.logs}", flush=True)
@override
def on_end(self):
print()
if __name__ == "__main__":
main()
EventHandler
が少し長いですが、これは公式ドキュメンテーションにあるサンプルのほぼコピペです。
現状公式のドキュメンテーションやリファレンスには最小限の情報しか載っていないので、ここでどんなメソッドが使えるかを知りたければソースコードを読む必要があります。
このあたりは生成 AI の使いどころな気もしますが医者の不養生的な感じでしょうか。
環境変数 OPENAI_API_KEY
に OpenAI の API キーをセットして実行します。
export OPENAI_API_KEY='...'
python openai_assistants_stream.py
API キーや assistants ID などが適切にセットされていれば回答が出力されるはずです。
ここではテキストのやりとりのみしているのでこれで問題ありませんが、画像ファイルなどもやりとりする場合はもう少し調整が必要そうです。