Локальная система ИИ-анализа данных
Эта реализация создает полностью локальный рабочий процесс анализа данных, где OpenClaw координирует многоэтапную аналитику, а Ollama обеспечивает локальное рассуждение LLM. Система обрабатывает CSV наборы данных и сопроводительные документы полностью на устройстве без каких-либо вызовов облачных API.
Архитектура и рабочий процесс
Система состоит из трех основных компонентов, работающих вместе:
web_assistant.py): Обрабатывает загрузку файлов, создает рабочие директории и отправляет slash-команды в OpenClawmain.py): Выполняет фактическую обработку данных, вывод столбцов, генерацию графиков и создание инсайтовТехническая реализация
Пользователи загружают CSV файлы через веб-интерфейс, что запускает OpenClaw для выполнения комплексного рабочего процесса анализа. Система автоматически выводит релевантные столбцы, генерирует визуализации трендов и производит три ключевых выхода: trend_chart.png для визуальных инсайтов, analysis_report.md с детальными находками и tool_trace.json для прозрачности рабочего процесса.
Конфигурация использует модель Ollama qwen3:8b, работающую локально на порту 11434, с OpenClaw, настроенным на использование этой конечной точки вместо внешних API. Настройка включает песочницу на основе Docker для безопасного выполнения кода и навыки рабочего пространства для управления файлами.
Преимущества конфиденциальности и безопасности
Эта архитектура обеспечивает полную конфиденциальность данных - чувствительные финансовые отчеты, юридические документы или записи клиентов никогда не покидают локальную машину. Система работает офлайн после загрузки моделей и обеспечивает полную прозрачность с инспектируемыми трассировками выполнения. Вся обработка, от приема данных до генерации финального отчета, происходит локально, сохраняя при этом возможности многоэтапного выполнения в стиле агента.