codex — ИИ агент навык qcc_plus, community, ИИ агент навык, ide skills, mcp сервер, claude code навык, docker поддержка, golang разработка, react интеграция

v1.0.0

Об этом навыке

Идеально подходит для Кодировочных Агентов, которым необходима продвинутая автоматизация и оптимизация рабочего процесса с помощью Claude Code и модели gpt-5.1-codex-max Что такое Codex? Это мультиарендный прокси-сервер для Claude Code

Возможности

Мультиарендный прокси-сервер
Веб-интерфейс администрирования
Функции высокого уровня доступности
Поддержка Docker и Golang
Интеграция с React и TypeScript

# Core Topics

yxhpy yxhpy
[41]
[14]
Updated: 3/16/2026

Killer-Skills Review

Decision support comes first. Repository text comes second.

Reference-Only Page Review Score: 8/11

This page remains useful for operators, but Killer-Skills treats it as reference material instead of a primary organic landing page.

Original recommendation layer Concrete use-case guidance Explicit limitations and caution
Review Score
8/11
Quality Score
34
Canonical Locale
en
Detected Body Locale
en

Идеально подходит для Кодировочных Агентов, которым необходима продвинутая автоматизация и оптимизация рабочего процесса с помощью Claude Code и модели gpt-5.1-codex-max Что такое Codex? Это мультиарендный прокси-сервер для Claude Code

Зачем использовать этот навык

Наделяет агентов возможностью автоматизировать задачи кодирования с высокими усилиями рассуждения с помощью модели gpt-5.1-codex-max, обеспечивая поддержку нескольких арендаторов, автоматическое переключение на запасной и веб-интерфейсы управления через Codex, прокси-сервер CLI Claude Code, использующий протоколы CLI и высокоуровневые рассуждения для оптимизации автоматизации рабочего процесса

Подходит лучше всего

Идеально подходит для Кодировочных Агентов, которым необходима продвинутая автоматизация и оптимизация рабочего процесса с помощью Claude Code и модели gpt-5.1-codex-max

Реализуемые кейсы использования for codex

Автоматизировать задачи кодирования с помощью модели gpt-5.1-codex-max
Оптимизировать автоматизацию рабочего процесса для разработчиков
Включить поддержку нескольких арендаторов и автоматическое переключение на запасной для задач кодирования

! Безопасность и ограничения

  • Требует модели gpt-5.1-codex-max с высокими усилиями рассуждения
  • Обязательное использование конкретной модели и усилий рассуждения
  • Необходимо совместимость с прокси-сервером CLI Claude Code

Why this page is reference-only

  • - Current locale does not satisfy the locale-governance contract.
  • - The underlying skill quality score is below the review floor.

Source Boundary

The section below is imported from the upstream repository and should be treated as secondary evidence. Use the Killer-Skills review above as the primary layer for fit, risk, and installation decisions.

After The Review

Decide The Next Action Before You Keep Reading Repository Material

Killer-Skills should not stop at opening repository instructions. It should help you decide whether to install this skill, when to cross-check against trusted collections, and when to move into workflow rollout.

Labs Demo

Browser Sandbox Environment

⚡️ Ready to unleash?

Experience this Agent in a zero-setup browser environment powered by WebContainers. No installation required.

Boot Container Sandbox

FAQ & Installation Steps

These questions and steps mirror the structured data on this page for better search understanding.

? Frequently Asked Questions

What is codex?

Идеально подходит для Кодировочных Агентов, которым необходима продвинутая автоматизация и оптимизация рабочего процесса с помощью Claude Code и модели gpt-5.1-codex-max Что такое Codex? Это мультиарендный прокси-сервер для Claude Code

How do I install codex?

Run the command: npx killer-skills add yxhpy/qcc_plus. It works with Cursor, Windsurf, VS Code, Claude Code, and 19+ other IDEs.

What are the use cases for codex?

Key use cases include: Автоматизировать задачи кодирования с помощью модели gpt-5.1-codex-max, Оптимизировать автоматизацию рабочего процесса для разработчиков, Включить поддержку нескольких арендаторов и автоматическое переключение на запасной для задач кодирования.

Which IDEs are compatible with codex?

This skill is compatible with Cursor, Windsurf, VS Code, Trae, Claude Code, OpenClaw, Aider, Codex, OpenCode, Goose, Cline, Roo Code, Kiro, Augment Code, Continue, GitHub Copilot, Sourcegraph Cody, and Amazon Q Developer. Use the Killer-Skills CLI for universal one-command installation.

Are there any limitations for codex?

Требует модели gpt-5.1-codex-max с высокими усилиями рассуждения. Обязательное использование конкретной модели и усилий рассуждения. Необходимо совместимость с прокси-сервером CLI Claude Code.

How To Install

  1. 1. Open your terminal

    Open the terminal or command line in your project directory.

  2. 2. Run the install command

    Run: npx killer-skills add yxhpy/qcc_plus. The CLI will automatically detect your IDE or AI agent and configure the skill.

  3. 3. Start using the skill

    The skill is now active. Your AI agent can use codex immediately in the current project.

! Reference-Only Mode

This page remains useful for installation and reference, but Killer-Skills no longer treats it as a primary indexable landing page. Read the review above before relying on the upstream repository instructions.

Upstream Repository Material

The section below is imported from the upstream repository and should be treated as secondary evidence. Use the Killer-Skills review above as the primary layer for fit, risk, and installation decisions.

Upstream Source

codex

Install codex, an AI agent skill for AI agent workflows and automation. Review the use cases, limitations, and setup path before rollout.

SKILL.md
Readonly
Upstream Repository Material
The section below is imported from the upstream repository and should be treated as secondary evidence. Use the Killer-Skills review above as the primary layer for fit, risk, and installation decisions.
Supporting Evidence

Codex Skill Guide

Running a Task

  1. Always use model gpt-5.1-codex-max with reasoning effort high for all Codex runs:
    • Model: gpt-5.1-codex-max (mandatory, do not change)
    • Reasoning effort: high (mandatory, do not change)
    • If the user mentions other model names (gpt-5, gpt-5-codex-max, gpt-5-codex), always use gpt-5.1-codex-max instead.
    • Clearly state in your summary that model gpt-5.1-codex-max with high reasoning effort was used.
  2. Select the sandbox mode required for the task; default to --sandbox read-only for analysis-only tasks, and use --sandbox workspace-write when edits are needed. Only consider --sandbox danger-full-access when the user’s request clearly requires network or broad system access.
  3. Assemble the command with the appropriate options:
    • -m, --model <MODEL>
    • --config model_reasoning_effort="<high|medium|low>"
    • --sandbox <read-only|workspace-write|danger-full-access>
    • --full-auto
    • -C, --cd <DIR>
    • --skip-git-repo-check
  4. Always use --skip-git-repo-check.
  5. When continuing a previous session, use codex exec --skip-git-repo-check resume --last via stdin. When resuming don't use any configuration flags unless explicitly requested by the user e.g. if he species the model or the reasoning effort when requesting to resume a session. Resume syntax: echo "your prompt here" | codex exec --skip-git-repo-check resume --last 2>/dev/null. All flags have to be inserted between exec and resume.
  6. IMPORTANT: By default, append 2>/dev/null to all codex exec commands to suppress thinking tokens (stderr). Only show stderr if the user explicitly requests to see thinking tokens or if debugging is needed.
  7. Run the command, capture stdout/stderr (filtered as appropriate), and summarize the outcome for the user.
  8. After Codex completes, inform the user: "You can resume this Codex session at any time by saying 'codex resume' or asking me to continue with additional analysis or changes."

Quick Reference

Use caseSandbox modeKey flags
Read-only review or analysisread-only--sandbox read-only 2>/dev/null
Apply local editsworkspace-write--sandbox workspace-write --full-auto 2>/dev/null
Permit network or broad accessdanger-full-access--sandbox danger-full-access --full-auto 2>/dev/null
Resume recent sessionInherited from originalecho "prompt" | codex exec --skip-git-repo-check resume --last 2>/dev/null (no flags allowed)
Run from another directoryMatch task needs-C <DIR> plus other flags 2>/dev/null

Following Up

  • After every codex command, summarize what was done, propose concrete next steps, and, if needed, ask focused follow-up questions only about the task itself (not about model or reasoning-effort choices).
  • When resuming, pipe the new prompt via stdin: echo "new prompt" | codex exec resume --last 2>/dev/null. The resumed session automatically uses the same model, reasoning effort, and sandbox mode from the original session.
  • Restate that gpt-5.1-codex-max with high reasoning effort was used, along with the sandbox mode, when proposing follow-up actions.

Error Handling

  • Stop and report failures whenever codex --version or a codex exec command exits non-zero; request direction before retrying.
  • Before you use high-impact flags like --full-auto or --sandbox danger-full-access, make sure the user’s request clearly implies this level of automation or access; you do not need to ask them to choose model or reasoning-effort.
  • When output includes warnings or partial results, summarize them and ask how to adjust using AskUserQuestion.

Связанные навыки

Looking for an alternative to codex or another community skill for your workflow? Explore these related open-source skills.

Показать все

openclaw-release-maintainer

Logo of openclaw
openclaw

Your own personal AI assistant. Any OS. Any Platform. The lobster way. 🦞

widget-generator

Logo of f
f

Создание настраиваемых плагинов виджетов для системы ленты новостей prompts.chat

flags

Logo of vercel
vercel

Фреймворк React

138.4k
0
Браузер

pr-review

Logo of pytorch
pytorch

Tensors and Dynamic neural networks in Python with strong GPU acceleration

98.6k
0
Разработчик