Ollama Ollama Ollama是一个本地运行的嵌入服务器,在SocratiCode架构中作为基础设施层的核心组件,负责生成文本嵌入向量。SocratiCode通过Docker容器自动管理Ollama实例。 在SocratiCode中的角色 提供嵌入模型服务,默认使用nomic-embed-text模型 通过端口11435提供服务 数据持久化存储在socraticode_ollama_data卷中 支持通过环境变量切换为OpenAI或Google的嵌入服务