forked from phoenix-oss/llama-stack-mirror
parent
124e8d7cfe
commit
1257288361
5 changed files with 410 additions and 3 deletions
37
llama_stack/templates/open_benchmark/build.yaml
Normal file
37
llama_stack/templates/open_benchmark/build.yaml
Normal file
|
@ -0,0 +1,37 @@
|
||||||
|
version: '2'
|
||||||
|
distribution_spec:
|
||||||
|
description: Distribution for running open benchmarks
|
||||||
|
providers:
|
||||||
|
inference:
|
||||||
|
- remote::openai
|
||||||
|
- remote::anthropic
|
||||||
|
- remote::gemini
|
||||||
|
- remote::groq
|
||||||
|
- remote::together
|
||||||
|
- inline::sentence-transformers
|
||||||
|
vector_io:
|
||||||
|
- inline::sqlite-vec
|
||||||
|
- remote::chromadb
|
||||||
|
- remote::pgvector
|
||||||
|
safety:
|
||||||
|
- inline::llama-guard
|
||||||
|
agents:
|
||||||
|
- inline::meta-reference
|
||||||
|
telemetry:
|
||||||
|
- inline::meta-reference
|
||||||
|
eval:
|
||||||
|
- inline::meta-reference
|
||||||
|
datasetio:
|
||||||
|
- remote::huggingface
|
||||||
|
- inline::localfs
|
||||||
|
scoring:
|
||||||
|
- inline::basic
|
||||||
|
- inline::llm-as-judge
|
||||||
|
- inline::braintrust
|
||||||
|
tool_runtime:
|
||||||
|
- remote::brave-search
|
||||||
|
- remote::tavily-search
|
||||||
|
- inline::code-interpreter
|
||||||
|
- inline::rag-runtime
|
||||||
|
- remote::model-context-protocol
|
||||||
|
image_type: conda
|
364
llama_stack/templates/open_benchmark/run.yaml
Normal file
364
llama_stack/templates/open_benchmark/run.yaml
Normal file
|
@ -0,0 +1,364 @@
|
||||||
|
version: '2'
|
||||||
|
image_name: open_benchmark
|
||||||
|
apis:
|
||||||
|
- agents
|
||||||
|
- datasetio
|
||||||
|
- eval
|
||||||
|
- inference
|
||||||
|
- safety
|
||||||
|
- scoring
|
||||||
|
- telemetry
|
||||||
|
- tool_runtime
|
||||||
|
- vector_io
|
||||||
|
providers:
|
||||||
|
inference:
|
||||||
|
- provider_id: openai
|
||||||
|
provider_type: remote::openai
|
||||||
|
config:
|
||||||
|
api_key: ${env.OPENAI_API_KEY:}
|
||||||
|
- provider_id: anthropic
|
||||||
|
provider_type: remote::anthropic
|
||||||
|
config:
|
||||||
|
api_key: ${env.ANTHROPIC_API_KEY:}
|
||||||
|
- provider_id: gemini
|
||||||
|
provider_type: remote::gemini
|
||||||
|
config:
|
||||||
|
api_key: ${env.GEMINI_API_KEY:}
|
||||||
|
- provider_id: groq
|
||||||
|
provider_type: remote::groq
|
||||||
|
config:
|
||||||
|
url: https://api.groq.com
|
||||||
|
api_key: ${env.GROQ_API_KEY:}
|
||||||
|
- provider_id: together
|
||||||
|
provider_type: remote::together
|
||||||
|
config:
|
||||||
|
url: https://api.together.xyz/v1
|
||||||
|
api_key: ${env.TOGETHER_API_KEY}
|
||||||
|
vector_io:
|
||||||
|
- provider_id: sqlite-vec
|
||||||
|
provider_type: inline::sqlite-vec
|
||||||
|
config:
|
||||||
|
db_path: ${env.SQLITE_STORE_DIR:~/.llama/distributions/open_benchmark}/sqlite_vec.db
|
||||||
|
- provider_id: ${env.ENABLE_CHROMADB+chromadb}
|
||||||
|
provider_type: remote::chromadb
|
||||||
|
config:
|
||||||
|
url: ${env.CHROMADB_URL:}
|
||||||
|
- provider_id: ${env.ENABLE_PGVECTOR+pgvector}
|
||||||
|
provider_type: remote::pgvector
|
||||||
|
config:
|
||||||
|
host: ${env.PGVECTOR_HOST:localhost}
|
||||||
|
port: ${env.PGVECTOR_PORT:5432}
|
||||||
|
db: ${env.PGVECTOR_DB:}
|
||||||
|
user: ${env.PGVECTOR_USER:}
|
||||||
|
password: ${env.PGVECTOR_PASSWORD:}
|
||||||
|
safety:
|
||||||
|
- provider_id: llama-guard
|
||||||
|
provider_type: inline::llama-guard
|
||||||
|
config: {}
|
||||||
|
agents:
|
||||||
|
- provider_id: meta-reference
|
||||||
|
provider_type: inline::meta-reference
|
||||||
|
config:
|
||||||
|
persistence_store:
|
||||||
|
type: sqlite
|
||||||
|
namespace: null
|
||||||
|
db_path: ${env.SQLITE_STORE_DIR:~/.llama/distributions/open_benchmark}/agents_store.db
|
||||||
|
telemetry:
|
||||||
|
- provider_id: meta-reference
|
||||||
|
provider_type: inline::meta-reference
|
||||||
|
config:
|
||||||
|
service_name: ${env.OTEL_SERVICE_NAME:llama-stack}
|
||||||
|
sinks: ${env.TELEMETRY_SINKS:console,sqlite}
|
||||||
|
sqlite_db_path: ${env.SQLITE_DB_PATH:~/.llama/distributions/open_benchmark/trace_store.db}
|
||||||
|
eval:
|
||||||
|
- provider_id: meta-reference
|
||||||
|
provider_type: inline::meta-reference
|
||||||
|
config: {}
|
||||||
|
datasetio:
|
||||||
|
- provider_id: huggingface
|
||||||
|
provider_type: remote::huggingface
|
||||||
|
config: {}
|
||||||
|
- provider_id: localfs
|
||||||
|
provider_type: inline::localfs
|
||||||
|
config: {}
|
||||||
|
scoring:
|
||||||
|
- provider_id: basic
|
||||||
|
provider_type: inline::basic
|
||||||
|
config: {}
|
||||||
|
- provider_id: llm-as-judge
|
||||||
|
provider_type: inline::llm-as-judge
|
||||||
|
config: {}
|
||||||
|
- provider_id: braintrust
|
||||||
|
provider_type: inline::braintrust
|
||||||
|
config:
|
||||||
|
openai_api_key: ${env.OPENAI_API_KEY:}
|
||||||
|
tool_runtime:
|
||||||
|
- provider_id: brave-search
|
||||||
|
provider_type: remote::brave-search
|
||||||
|
config:
|
||||||
|
api_key: ${env.BRAVE_SEARCH_API_KEY:}
|
||||||
|
max_results: 3
|
||||||
|
- provider_id: tavily-search
|
||||||
|
provider_type: remote::tavily-search
|
||||||
|
config:
|
||||||
|
api_key: ${env.TAVILY_SEARCH_API_KEY:}
|
||||||
|
max_results: 3
|
||||||
|
- provider_id: code-interpreter
|
||||||
|
provider_type: inline::code-interpreter
|
||||||
|
config: {}
|
||||||
|
- provider_id: rag-runtime
|
||||||
|
provider_type: inline::rag-runtime
|
||||||
|
config: {}
|
||||||
|
- provider_id: model-context-protocol
|
||||||
|
provider_type: remote::model-context-protocol
|
||||||
|
config: {}
|
||||||
|
metadata_store:
|
||||||
|
type: sqlite
|
||||||
|
db_path: ${env.SQLITE_STORE_DIR:~/.llama/distributions/open_benchmark}/registry.db
|
||||||
|
models:
|
||||||
|
- metadata: {}
|
||||||
|
model_id: openai/gpt-4o
|
||||||
|
provider_id: openai
|
||||||
|
provider_model_id: openai/gpt-4o
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: openai/gpt-4o-mini
|
||||||
|
provider_id: openai
|
||||||
|
provider_model_id: openai/gpt-4o-mini
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: openai/chatgpt-4o-latest
|
||||||
|
provider_id: openai
|
||||||
|
provider_model_id: openai/chatgpt-4o-latest
|
||||||
|
model_type: llm
|
||||||
|
- metadata:
|
||||||
|
embedding_dimension: 1536
|
||||||
|
context_length: 8192
|
||||||
|
model_id: openai/text-embedding-3-small
|
||||||
|
provider_id: openai
|
||||||
|
provider_model_id: openai/text-embedding-3-small
|
||||||
|
model_type: embedding
|
||||||
|
- metadata:
|
||||||
|
embedding_dimension: 3072
|
||||||
|
context_length: 8192
|
||||||
|
model_id: openai/text-embedding-3-large
|
||||||
|
provider_id: openai
|
||||||
|
provider_model_id: openai/text-embedding-3-large
|
||||||
|
model_type: embedding
|
||||||
|
- metadata: {}
|
||||||
|
model_id: anthropic/claude-3-5-sonnet-latest
|
||||||
|
provider_id: anthropic
|
||||||
|
provider_model_id: anthropic/claude-3-5-sonnet-latest
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: anthropic/claude-3-7-sonnet-latest
|
||||||
|
provider_id: anthropic
|
||||||
|
provider_model_id: anthropic/claude-3-7-sonnet-latest
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: anthropic/claude-3-5-haiku-latest
|
||||||
|
provider_id: anthropic
|
||||||
|
provider_model_id: anthropic/claude-3-5-haiku-latest
|
||||||
|
model_type: llm
|
||||||
|
- metadata:
|
||||||
|
embedding_dimension: 1024
|
||||||
|
context_length: 32000
|
||||||
|
model_id: anthropic/voyage-3
|
||||||
|
provider_id: anthropic
|
||||||
|
provider_model_id: anthropic/voyage-3
|
||||||
|
model_type: embedding
|
||||||
|
- metadata:
|
||||||
|
embedding_dimension: 512
|
||||||
|
context_length: 32000
|
||||||
|
model_id: anthropic/voyage-3-lite
|
||||||
|
provider_id: anthropic
|
||||||
|
provider_model_id: anthropic/voyage-3-lite
|
||||||
|
model_type: embedding
|
||||||
|
- metadata:
|
||||||
|
embedding_dimension: 1024
|
||||||
|
context_length: 32000
|
||||||
|
model_id: anthropic/voyage-code-3
|
||||||
|
provider_id: anthropic
|
||||||
|
provider_model_id: anthropic/voyage-code-3
|
||||||
|
model_type: embedding
|
||||||
|
- metadata: {}
|
||||||
|
model_id: gemini/gemini-1.5-flash
|
||||||
|
provider_id: gemini
|
||||||
|
provider_model_id: gemini/gemini-1.5-flash
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: gemini/gemini-1.5-pro
|
||||||
|
provider_id: gemini
|
||||||
|
provider_model_id: gemini/gemini-1.5-pro
|
||||||
|
model_type: llm
|
||||||
|
- metadata:
|
||||||
|
embedding_dimension: 768
|
||||||
|
context_length: 2048
|
||||||
|
model_id: gemini/text-embedding-004
|
||||||
|
provider_id: gemini
|
||||||
|
provider_model_id: gemini/text-embedding-004
|
||||||
|
model_type: embedding
|
||||||
|
- metadata: {}
|
||||||
|
model_id: groq/llama3-8b-8192
|
||||||
|
provider_id: groq
|
||||||
|
provider_model_id: groq/llama3-8b-8192
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Llama-3.1-8B-Instruct
|
||||||
|
provider_id: groq
|
||||||
|
provider_model_id: groq/llama3-8b-8192
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: groq/llama-3.1-8b-instant
|
||||||
|
provider_id: groq
|
||||||
|
provider_model_id: groq/llama-3.1-8b-instant
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: groq/llama3-70b-8192
|
||||||
|
provider_id: groq
|
||||||
|
provider_model_id: groq/llama3-70b-8192
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Llama-3-70B-Instruct
|
||||||
|
provider_id: groq
|
||||||
|
provider_model_id: groq/llama3-70b-8192
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: groq/llama-3.3-70b-versatile
|
||||||
|
provider_id: groq
|
||||||
|
provider_model_id: groq/llama-3.3-70b-versatile
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Llama-3.3-70B-Instruct
|
||||||
|
provider_id: groq
|
||||||
|
provider_model_id: groq/llama-3.3-70b-versatile
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: groq/llama-3.2-3b-preview
|
||||||
|
provider_id: groq
|
||||||
|
provider_model_id: groq/llama-3.2-3b-preview
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Llama-3.2-3B-Instruct
|
||||||
|
provider_id: groq
|
||||||
|
provider_model_id: groq/llama-3.2-3b-preview
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Llama-3.1-8B-Instruct
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Llama-3.1-70B-Instruct
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Llama-3.1-405B-Instruct-FP8
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: meta-llama/Meta-Llama-3.1-405B-Instruct-Turbo
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Llama-3.2-3B-Instruct-Turbo
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: meta-llama/Llama-3.2-3B-Instruct-Turbo
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Llama-3.2-3B-Instruct
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: meta-llama/Llama-3.2-3B-Instruct-Turbo
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Llama-3.2-11B-Vision-Instruct
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: meta-llama/Llama-3.2-11B-Vision-Instruct-Turbo
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Llama-3.2-90B-Vision-Instruct
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: meta-llama/Llama-3.2-90B-Vision-Instruct-Turbo
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Llama-3.3-70B-Instruct-Turbo
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: meta-llama/Llama-3.3-70B-Instruct-Turbo
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Llama-3.3-70B-Instruct
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: meta-llama/Llama-3.3-70B-Instruct-Turbo
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Meta-Llama-Guard-3-8B
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: meta-llama/Meta-Llama-Guard-3-8B
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Llama-Guard-3-8B
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: meta-llama/Meta-Llama-Guard-3-8B
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Llama-Guard-3-11B-Vision-Turbo
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: meta-llama/Llama-Guard-3-11B-Vision-Turbo
|
||||||
|
model_type: llm
|
||||||
|
- metadata: {}
|
||||||
|
model_id: meta-llama/Llama-Guard-3-11B-Vision
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: meta-llama/Llama-Guard-3-11B-Vision-Turbo
|
||||||
|
model_type: llm
|
||||||
|
- metadata:
|
||||||
|
embedding_dimension: 768
|
||||||
|
context_length: 8192
|
||||||
|
model_id: togethercomputer/m2-bert-80M-8k-retrieval
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: togethercomputer/m2-bert-80M-8k-retrieval
|
||||||
|
model_type: embedding
|
||||||
|
- metadata:
|
||||||
|
embedding_dimension: 768
|
||||||
|
context_length: 32768
|
||||||
|
model_id: togethercomputer/m2-bert-80M-32k-retrieval
|
||||||
|
provider_id: together
|
||||||
|
provider_model_id: togethercomputer/m2-bert-80M-32k-retrieval
|
||||||
|
model_type: embedding
|
||||||
|
shields:
|
||||||
|
- shield_id: meta-llama/Llama-Guard-3-8B
|
||||||
|
vector_dbs: []
|
||||||
|
datasets: []
|
||||||
|
scoring_fns: []
|
||||||
|
benchmarks: []
|
||||||
|
tool_groups:
|
||||||
|
- toolgroup_id: builtin::websearch
|
||||||
|
provider_id: tavily-search
|
||||||
|
- toolgroup_id: builtin::rag
|
||||||
|
provider_id: rag-runtime
|
||||||
|
- toolgroup_id: builtin::code_interpreter
|
||||||
|
provider_id: code-interpreter
|
||||||
|
server:
|
||||||
|
port: 8321
|
|
@ -34,6 +34,8 @@ dependencies = [
|
||||||
"rich",
|
"rich",
|
||||||
"setuptools",
|
"setuptools",
|
||||||
"termcolor",
|
"termcolor",
|
||||||
|
"tiktoken",
|
||||||
|
"pillow",
|
||||||
]
|
]
|
||||||
|
|
||||||
[project.optional-dependencies]
|
[project.optional-dependencies]
|
||||||
|
@ -63,7 +65,6 @@ test = [
|
||||||
"groq",
|
"groq",
|
||||||
"opentelemetry-sdk",
|
"opentelemetry-sdk",
|
||||||
"opentelemetry-exporter-otlp-proto-http",
|
"opentelemetry-exporter-otlp-proto-http",
|
||||||
"tiktoken",
|
|
||||||
"chardet",
|
"chardet",
|
||||||
"pypdf",
|
"pypdf",
|
||||||
]
|
]
|
||||||
|
|
|
@ -27,6 +27,7 @@ mdurl==0.1.2
|
||||||
numpy==2.2.3
|
numpy==2.2.3
|
||||||
packaging==24.2
|
packaging==24.2
|
||||||
pandas==2.2.3
|
pandas==2.2.3
|
||||||
|
pillow==11.1.0
|
||||||
prompt-toolkit==3.0.50
|
prompt-toolkit==3.0.50
|
||||||
pyaml==25.1.0
|
pyaml==25.1.0
|
||||||
pycryptodomex==3.21.0
|
pycryptodomex==3.21.0
|
||||||
|
@ -38,6 +39,7 @@ python-dotenv==1.0.1
|
||||||
pytz==2025.1
|
pytz==2025.1
|
||||||
pyyaml==6.0.2
|
pyyaml==6.0.2
|
||||||
referencing==0.36.2
|
referencing==0.36.2
|
||||||
|
regex==2024.11.6
|
||||||
requests==2.32.3
|
requests==2.32.3
|
||||||
rich==13.9.4
|
rich==13.9.4
|
||||||
rpds-py==0.22.3
|
rpds-py==0.22.3
|
||||||
|
@ -45,6 +47,7 @@ setuptools==75.8.0
|
||||||
six==1.17.0
|
six==1.17.0
|
||||||
sniffio==1.3.1
|
sniffio==1.3.1
|
||||||
termcolor==2.5.0
|
termcolor==2.5.0
|
||||||
|
tiktoken==0.9.0
|
||||||
tqdm==4.67.1
|
tqdm==4.67.1
|
||||||
typing-extensions==4.12.2
|
typing-extensions==4.12.2
|
||||||
tzdata==2025.1
|
tzdata==2025.1
|
||||||
|
|
6
uv.lock
generated
6
uv.lock
generated
|
@ -871,6 +871,7 @@ dependencies = [
|
||||||
{ name = "huggingface-hub" },
|
{ name = "huggingface-hub" },
|
||||||
{ name = "jsonschema" },
|
{ name = "jsonschema" },
|
||||||
{ name = "llama-stack-client" },
|
{ name = "llama-stack-client" },
|
||||||
|
{ name = "pillow" },
|
||||||
{ name = "prompt-toolkit" },
|
{ name = "prompt-toolkit" },
|
||||||
{ name = "pydantic" },
|
{ name = "pydantic" },
|
||||||
{ name = "python-dotenv" },
|
{ name = "python-dotenv" },
|
||||||
|
@ -878,6 +879,7 @@ dependencies = [
|
||||||
{ name = "rich" },
|
{ name = "rich" },
|
||||||
{ name = "setuptools" },
|
{ name = "setuptools" },
|
||||||
{ name = "termcolor" },
|
{ name = "termcolor" },
|
||||||
|
{ name = "tiktoken" },
|
||||||
]
|
]
|
||||||
|
|
||||||
[package.optional-dependencies]
|
[package.optional-dependencies]
|
||||||
|
@ -924,7 +926,6 @@ test = [
|
||||||
{ name = "opentelemetry-sdk" },
|
{ name = "opentelemetry-sdk" },
|
||||||
{ name = "pypdf" },
|
{ name = "pypdf" },
|
||||||
{ name = "sqlite-vec" },
|
{ name = "sqlite-vec" },
|
||||||
{ name = "tiktoken" },
|
|
||||||
{ name = "torch", version = "2.6.0", source = { registry = "https://download.pytorch.org/whl/cpu" }, marker = "sys_platform == 'darwin'" },
|
{ name = "torch", version = "2.6.0", source = { registry = "https://download.pytorch.org/whl/cpu" }, marker = "sys_platform == 'darwin'" },
|
||||||
{ name = "torch", version = "2.6.0+cpu", source = { registry = "https://download.pytorch.org/whl/cpu" }, marker = "sys_platform != 'darwin'" },
|
{ name = "torch", version = "2.6.0+cpu", source = { registry = "https://download.pytorch.org/whl/cpu" }, marker = "sys_platform != 'darwin'" },
|
||||||
{ name = "torchvision", version = "0.21.0", source = { registry = "https://download.pytorch.org/whl/cpu" }, marker = "(platform_machine == 'aarch64' and sys_platform == 'linux') or sys_platform == 'darwin'" },
|
{ name = "torchvision", version = "0.21.0", source = { registry = "https://download.pytorch.org/whl/cpu" }, marker = "(platform_machine == 'aarch64' and sys_platform == 'linux') or sys_platform == 'darwin'" },
|
||||||
|
@ -953,6 +954,7 @@ requires-dist = [
|
||||||
{ name = "openai", marker = "extra == 'test'" },
|
{ name = "openai", marker = "extra == 'test'" },
|
||||||
{ name = "opentelemetry-exporter-otlp-proto-http", marker = "extra == 'test'" },
|
{ name = "opentelemetry-exporter-otlp-proto-http", marker = "extra == 'test'" },
|
||||||
{ name = "opentelemetry-sdk", marker = "extra == 'test'" },
|
{ name = "opentelemetry-sdk", marker = "extra == 'test'" },
|
||||||
|
{ name = "pillow" },
|
||||||
{ name = "pre-commit", marker = "extra == 'dev'" },
|
{ name = "pre-commit", marker = "extra == 'dev'" },
|
||||||
{ name = "prompt-toolkit" },
|
{ name = "prompt-toolkit" },
|
||||||
{ name = "pydantic", specifier = ">=2" },
|
{ name = "pydantic", specifier = ">=2" },
|
||||||
|
@ -978,7 +980,7 @@ requires-dist = [
|
||||||
{ name = "sphinxcontrib-video", marker = "extra == 'docs'" },
|
{ name = "sphinxcontrib-video", marker = "extra == 'docs'" },
|
||||||
{ name = "sqlite-vec", marker = "extra == 'test'" },
|
{ name = "sqlite-vec", marker = "extra == 'test'" },
|
||||||
{ name = "termcolor" },
|
{ name = "termcolor" },
|
||||||
{ name = "tiktoken", marker = "extra == 'test'" },
|
{ name = "tiktoken" },
|
||||||
{ name = "tomli", marker = "extra == 'docs'" },
|
{ name = "tomli", marker = "extra == 'docs'" },
|
||||||
{ name = "torch", marker = "extra == 'test'", specifier = ">=2.6.0", index = "https://download.pytorch.org/whl/cpu" },
|
{ name = "torch", marker = "extra == 'test'", specifier = ">=2.6.0", index = "https://download.pytorch.org/whl/cpu" },
|
||||||
{ name = "torchvision", marker = "extra == 'test'", specifier = ">=0.21.0", index = "https://download.pytorch.org/whl/cpu" },
|
{ name = "torchvision", marker = "extra == 'test'", specifier = ">=0.21.0", index = "https://download.pytorch.org/whl/cpu" },
|
||||||
|
|
Loading…
Add table
Add a link
Reference in a new issue