← Назад к курсу

LM Studio: бесплатный ИИ-чат и сервер у себя на компьютере

Общие моменты работы с LM Studio

Для знакомства и работы с искусственным интеллектом очень полезно и удобно использовать LM Studio. Если кратко, то это инструмент для запуска локальных моделей ИИ (искусственного интеллекта) в формате GGUF на своем ПК (персональном компьютере) без необходимости отправки чего-либо на другие сервера в сети Интернет.

Работа строится очень просто:

1. Выбираете и загружаете одну из локальных моделей ИИ, например, Gemma 4b, Qwen 4b или другие.

2. Запускаете чат, выбираете модель и все готово.

3. Спрашиваете, получаете ответы, уточняете.

Для более качественного ответа можно при отправке запроса вложить текстовые или графические файлы. Некоторые модели работают только с текстом, другие могут проанализировать картинку/фото и сообщить, что на ней изображено.

Скорость ответов напрямую зависит от мощности ПК, на котором запущена программа LM Studio. Чем более мощный у вас ПК, тем более сложные модели можно использовать для изучения и работы.

Как развернуть на своем персональном компьютере сервер, совместимый с OpenAI API

Для продвинутых пользователей и разработчиков есть очень удобная возможность активировать LM Studio как локальный сервер с API на основе протокола OpenAI. Это дает возможность использовать его как облачные, например, ChatGPT, Grok, Deepseek, Qwen и другие. Например, я сделал себе проект для личного использования, который использует локальные модели вместо облачных API, что очень удобно и бесплатно. Использование LM Studio как сервера возможно и по локальной сети с другого компьютера, например, более мощного или с установленной игровой видеокартой RTX 3060 и выше. Более старые видеокарты тоже будут работать, но с меньшей скоростью генерации.

Включаем сервер

1. Сначала надо перевести работу с LM Studio в режим "Power User" или "Developer". Это делается через выбор вкладки в нижней части главного окна.

2. После этого, в левой части главного окна появляются дополнительные вкладки, нам нужно выбрать зеленую, которая предназначена для запуска и настройки работы в режиме сервера.

3. На этой вкладке надо активировать флажок "Status" в верхней части окна, чтобы статус сменился на "Running", а сам флажок стал включенным и зеленого цвета.

4. Далее, нам понадобится адрес сервера, например "http://192.168.1.250:1234", который мы вставим в наш код для работы.

5. Также снизу указаны доступные эндпойнты (точки входа) для работы с сервером, из них самые нужные следующие:

  • GET    "/v1/models"  - это список доступных моделей, которые уже загружены и могут быть активированы для работы
  • POST  "/v1/chat/completions" - это точка обращения к LLM с запросом

Пример рабочего кода на Python

# Обязательно установите OpenAI SDK перед запуском: `pip3 install openai`
import os

from openai import OpenAI
client = OpenAI(api_key='', base_url="http://192.168.1.250:1234/v1") # путь к модели

response = client.chat.completions.create(
    model="google/gemma-3-4b",
    messages=[
        {"role": "system", "content": "Ты опытный программист на Python"},
        {"role": "user", "content": "Привет, расскажи про Python"},
    ],
    stream=False
)

print(response.choices[0].message.content)

Пояснения к коду

Поскольку мы использовали библиотеку openai, то для нее достаточно указать путь "http://192.168.1.250:1234/" и добавить "v1", библиотека сама добавит стандартный путь "chat/completions".

Если делать обращение к серверу напрямую через запрос http, то нужно будет указать полный путь "http://192.168.1.250:1234/v1/chat/completions"

Резюме

LM Studio удобно использовать и как чат, и как сервер для тестирования при разработке своих приложений. Как показано выше, достаточно двух десятков строк кода на Python, чтобы использовать локальный сервер для работы с искусственным интеллектом. 

Если у пользователя на компьютере установлена мощная видеокарта с большим объемом видеопамяти, например, RTX 4070 12GB или более мощная, то ее можно использовать и для решения некоторых практических задач. В любом случае, наличие своего сервера упрощает тестирование своих разработок, не нужно платить за использование облачных серверов.