Replace generic provider/LLM terminology with OpenAI or Anthropic (#56)
authorStefan Gasser <redacted>
Tue, 20 Jan 2026 22:40:11 +0000 (23:40 +0100)
committerGitHub <redacted>
Tue, 20 Jan 2026 22:40:11 +0000 (23:40 +0100)
- Use specific names instead of "provider" or "LLM" in user-facing text
- Keep "local LLM" for Ollama/vLLM references
- Update README, docs, and configuration files

14 files changed:
README.md
docs/api-reference/anthropic.mdx
docs/concepts/mask-mode.mdx
docs/concepts/route-mode.mdx
docs/concepts/secrets-detection.mdx
docs/configuration/logging.mdx
docs/configuration/overview.mdx
docs/configuration/providers.mdx
docs/configuration/secrets-detection.mdx
docs/integrations.mdx
docs/introduction.mdx
docs/quickstart.mdx
package.json
src/routes/info.test.ts

index eef14090a2e8cc2fe322b4c8492456634a57cdec..7f1abebf92a59f19342aa97e6c7b49d2960a3b6c 100644 (file)
--- a/README.md
+++ b/README.md
@@ -8,7 +8,7 @@
 </p>
 
 <p align="center">
-  Privacy proxy for LLMs. Masks personal data and secrets before sending prompts to your provider.
+  Privacy proxy for OpenAI and Anthropic. Masks personal data and secrets before they reach the API.
 </p>
 
 <p align="center">
 
 <br/>
 
-<img src="assets/dashboard.png" width="100%" alt="PasteGuard Dashboard">
+<img src="assets/demo.gif" width="100%" alt="PasteGuard Demo">
 
 ## What is PasteGuard?
 
-PasteGuard is a privacy proxy that masks personal data and secrets before sending prompts to LLM providers.
+PasteGuard is a privacy proxy that masks personal data and secrets before they reach OpenAI or Anthropic.
 
 ```
 You send:  "Email Dr. Sarah Chen at sarah@hospital.org"
@@ -33,8 +33,8 @@ You get:   Response with original names restored
 
 **Two ways to protect your data:**
 
-- **Mask Mode** — Replace PII with placeholders, send to your provider, restore in response. No local infrastructure needed.
-- **Route Mode** — Send PII requests to a local LLM (Ollama, vLLM, llama.cpp), everything else to your provider. Data never leaves your network.
+- **Mask Mode** — Replace PII with placeholders, send to OpenAI or Anthropic, restore in response. No local infrastructure needed.
+- **Route Mode** — Send PII requests to a local LLM (Ollama, vLLM, llama.cpp), everything else to OpenAI or Anthropic. Data never leaves your network.
 
 Just change one URL to start protecting your data.
 
@@ -52,7 +52,7 @@ Open source (Apache 2.0). Built in public — early feedback shapes the product.
 ## Features
 
 - **PII Detection** — Names, emails, phone numbers, credit cards, IBANs, and more
-- **Secrets Detection** — API keys, tokens, private keys caught before they reach the LLM
+- **Secrets Detection** — API keys, tokens, private keys caught before they reach OpenAI or Anthropic
 - **Streaming Support** — Real-time unmasking as tokens arrive
 - **24 Languages** — English, German, French, and 21 more
 - **OpenAI** — Works with OpenAI and compatible APIs (Azure, OpenRouter, Groq, Together AI, etc.)
@@ -69,13 +69,15 @@ docker run --rm -p 3000:3000 ghcr.io/sgasser/pasteguard:en
 
 Point your app to PasteGuard:
 
-| Provider | PasteGuard URL | Original URL |
+| API | PasteGuard URL | Original URL |
 |----------|----------------|--------------|
 | OpenAI | `http://localhost:3000/openai/v1` | `https://api.openai.com/v1` |
 | Anthropic | `http://localhost:3000/anthropic` | `https://api.anthropic.com` |
 
 Dashboard: [http://localhost:3000/dashboard](http://localhost:3000/dashboard)
 
+<img src="assets/dashboard.png" width="100%" alt="PasteGuard Dashboard">
+
 ### European Languages
 
 For German, Spanish, French, Italian, Dutch, Polish, Portuguese, and Romanian:
index 13079f7e4e9062f0b53ccb1e7e69eb1b864b1a1c..f90078fe33874c091d7da649329875c1987ecefc 100644 (file)
@@ -12,7 +12,7 @@ POST /anthropic/v1/messages
 ```
 
 <Note>
-This endpoint supports both **mask mode** and **route mode**. Route mode requires a local provider with Anthropic API support (e.g., Ollama). The request format follows the [Anthropic Messages API](https://platform.claude.com/docs/en/api/messages).
+This endpoint supports both **mask mode** and **route mode**. Route mode requires a local LLM with Anthropic API support (e.g., Ollama). The request format follows the [Anthropic Messages API](https://platform.claude.com/docs/en/api/messages).
 </Note>
 
 ## Request
index 31f20a16d502537315b90590f82bbdf63ddb951f..79c5db6a9d052b6d9d70435b948a24138a9ed89f 100644 (file)
@@ -1,11 +1,11 @@
 ---
 title: Mask Mode
-description: Replace PII with placeholders before sending to your provider
+description: Replace PII with placeholders before sending to OpenAI or Anthropic
 ---
 
 # Mask Mode
 
-Mask mode replaces PII with placeholders before sending to your configured provider. The response is automatically unmasked before returning to you.
+Mask mode replaces PII with placeholders before sending to OpenAI or Anthropic. The response is automatically unmasked before returning to you.
 
 ## How It Works
 
@@ -17,10 +17,10 @@ Mask mode replaces PII with placeholders before sending to your configured provi
     PasteGuard finds: `Dr. Sarah Chen` (PERSON), `sarah.chen@hospital.org` (EMAIL)
   </Step>
   <Step title="Masked request sent">
-    Provider receives: `"Write a follow-up email to [[PERSON_1]] ([[EMAIL_ADDRESS_1]])"`
+    OpenAI/Anthropic receives: `"Write a follow-up email to [[PERSON_1]] ([[EMAIL_ADDRESS_1]])"`
   </Step>
   <Step title="Response masked">
-    Provider responds: `"Dear [[PERSON_1]], Following up on our discussion..."`
+    OpenAI/Anthropic responds: `"Dear [[PERSON_1]], Following up on our discussion..."`
   </Step>
   <Step title="Response unmasked">
     You receive: `"Dear Dr. Sarah Chen, Following up on our discussion..."`
@@ -30,7 +30,7 @@ Mask mode replaces PII with placeholders before sending to your configured provi
 ## When to Use
 
 - Simple setup without local infrastructure
-- Want to use OpenAI, Anthropic, or compatible providers while protecting PII
+- Want to use OpenAI or Anthropic while protecting PII
 
 ## Configuration
 
index e9581f97a9f2c8d82b0f85cd06283c57d6ad323c..87d33e6746b2e5ae58e5a7d53b6a43342df34e86 100644 (file)
@@ -5,7 +5,7 @@ description: Route PII requests to a local LLM
 
 # Route Mode
 
-Route mode sends requests containing PII to a local LLM. Requests without PII go to your configured provider.
+Route mode sends requests containing PII to a local LLM. Requests without PII go to OpenAI or Anthropic.
 
 ## How It Works
 
@@ -16,9 +16,9 @@ Route mode sends requests containing PII to a local LLM. Requests without PII go
     PII stays on your network.
   </Card>
   <Card title="Request without PII" icon="server">
-    Routed to **Configured Provider** (OpenAI, Anthropic, Azure, etc.)
+    Routed to **OpenAI or Anthropic**
 
-    Full provider performance.
+    Full performance.
   </Card>
 </CardGroup>
 
@@ -44,14 +44,14 @@ local:
 ```
 
 In route mode:
-- **No PII detected** → Request goes to configured provider (OpenAI or Anthropic)
-- **PII detected** → Request goes to local provider
+- **No PII detected** → Request goes to OpenAI or Anthropic
+- **PII detected** → Request goes to local LLM
 
 <Note>
-For Anthropic requests, the local provider must support the Anthropic Messages API (e.g., Ollama with Anthropic API compatibility).
+For Anthropic requests, the local LLM must support the Anthropic Messages API (e.g., Ollama with Anthropic API compatibility).
 </Note>
 
-## Local Provider Setup
+## Local LLM Setup
 
 ### Ollama
 
@@ -103,7 +103,7 @@ X-PasteGuard-PII-Detected: true
 X-PasteGuard-Language: en
 ```
 
-When routed to configured provider:
+When routed to OpenAI or Anthropic:
 
 ```
 X-PasteGuard-Mode: route
index 0daca06d189d41430bd5609d5eeb0646c6b7b19f..f96977383ac41fd92feda0bae476d73555517077 100644 (file)
@@ -44,7 +44,7 @@ PasteGuard detects secrets before PII detection and can block, mask, or route re
 | Action | Description |
 |--------|-------------|
 | `mask` | Replace secrets with placeholders, restore in response (default) |
-| `block` | Return HTTP 400, request never reaches LLM |
+| `block` | Return HTTP 400, request never reaches OpenAI or Anthropic |
 | `route_local` | Route to local LLM (requires route mode) |
 
 ### Mask (Default)
@@ -64,7 +64,7 @@ secrets_detection:
   action: block
 ```
 
-Request is rejected with HTTP 400. The secret never reaches the LLM.
+Request is rejected with HTTP 400. The secret never reaches OpenAI or Anthropic.
 
 ### Route to Local
 
index 284608e350cc499352fdbcc0e37b77ef68f26a94..ae54067fd016a5e2356f286d521c162fda4a21a2 100644 (file)
@@ -69,7 +69,7 @@ logging:
   log_masked_content: true
 ```
 
-Shows what was actually sent to your provider with PII replaced by placeholders.
+Shows what was actually sent to OpenAI or Anthropic with PII replaced by placeholders.
 
 ### No Content
 
index 0ba4291e888f25ccb51ffd462cf419a08e859124..0db0f529ac37dacfe248acd4326494da3a579b13 100644 (file)
@@ -21,8 +21,8 @@ mode: mask
 
 | Value | Description |
 |-------|-------------|
-| `mask` | Replace PII with placeholders, send to provider, restore in response |
-| `route` | PII requests stay on your local LLM (Ollama, vLLM, llama.cpp), others go to your configured provider |
+| `mask` | Replace PII with placeholders, send to OpenAI or Anthropic, restore in response |
+| `route` | PII requests stay on your local LLM (Ollama, vLLM, llama.cpp), others go to OpenAI or Anthropic |
 
 See [Mask Mode](/concepts/mask-mode) and [Route Mode](/concepts/route-mode) for details.
 
index 94f764f729510d9ec6e7b36432c46e502b947651..32d4e5f2ea7ae13ddf028be64ee11426f65180c5 100644 (file)
@@ -1,11 +1,11 @@
 ---
 title: Providers
-description: Configure your LLM providers
+description: Configure OpenAI, Anthropic, and local LLM endpoints
 ---
 
 # Providers
 
-PasteGuard supports two provider types: configured providers (`providers`) and local provider (`local`).
+Configure endpoints for OpenAI, Anthropic, and local LLMs.
 
 ## OpenAI Provider
 
@@ -76,7 +76,7 @@ providers:
 | `base_url` | Anthropic API endpoint |
 | `api_key` | Optional. Used if client doesn't send `x-api-key` header |
 
-## Local Provider
+## Local LLM
 
 Required for route mode only. Your local LLM for PII requests.
 
@@ -133,7 +133,7 @@ local:
 
 ## API Key Handling
 
-PasteGuard forwards your client's authentication headers to the configured provider. You can optionally set `api_key` in config as a fallback:
+PasteGuard forwards your client's authentication headers to OpenAI or Anthropic. You can optionally set `api_key` in config as a fallback:
 
 ```yaml
 providers:
index 0b90bb403dd528d99684110953df8ecd68a41e1a..d1172284efc21036bc113b63ed08886787d24767 100644 (file)
@@ -31,7 +31,7 @@ secrets_detection:
 | Action | Description |
 |--------|-------------|
 | `mask` | Replace secrets with placeholders, restore in response (default) |
-| `block` | Return HTTP 400, request never reaches LLM |
+| `block` | Return HTTP 400, request never reaches OpenAI or Anthropic |
 | `route_local` | Route to local LLM (requires route mode) |
 
 ### Mask (Default)
index 0d885fbc7fe2c0ceeb84adca15e424044e650a4f..8076b6a9750d9106586807ed8a60c45199738c30 100644 (file)
@@ -7,7 +7,7 @@ description: Use PasteGuard with IDEs, chat interfaces, and SDKs
 
 PasteGuard drops into your existing workflow. Point your tools to PasteGuard and every request gets PII protection automatically.
 
-| Provider | PasteGuard URL |
+| API | PasteGuard URL |
 |----------|----------------|
 | OpenAI | `http://localhost:3000/openai/v1` |
 | Anthropic | `http://localhost:3000/anthropic` |
@@ -58,7 +58,7 @@ cache: true
 endpoints:
   custom:
     - name: "PasteGuard"
-      apiKey: "${OPENAI_API_KEY}"  # Your API key, forwarded to provider
+      apiKey: "${OPENAI_API_KEY}"  # Your API key, forwarded to OpenAI
       baseURL: "http://localhost:3000/openai/v1"
       models:
         default: ["gpt-5.2"]
index 1e4e843ab450af0ec209f2fcb5025452d3e6de23..20ed28bc937c2f208a24add4c74523370f9ec878 100644 (file)
@@ -1,9 +1,9 @@
 ---
 title: Introduction
-description: Privacy proxy for LLMs
+description: Privacy proxy for OpenAI and Anthropic
 ---
 
-PasteGuard masks personal data and secrets before sending prompts to LLM providers.
+PasteGuard masks personal data and secrets before they reach OpenAI or Anthropic.
 
 ```
 You send:  "Email Dr. Sarah Chen at sarah@hospital.org"
@@ -11,7 +11,7 @@ LLM sees:  "Email [[PERSON_1]] at [[EMAIL_ADDRESS_1]]"
 You get:   Response with original names restored
 ```
 
-PasteGuard sits between your app and the LLM API:
+PasteGuard sits between your app and the API:
 
 <Frame>
   <img src="/images/demo.gif" alt="PasteGuard Demo" />
@@ -21,8 +21,8 @@ Two privacy modes:
 
 | Mode | How it works |
 |------|--------------|
-| **Mask** | Replace PII with placeholders, send to provider, restore in response |
-| **Route** | PII requests stay on your local LLM (Ollama, vLLM, llama.cpp), others go to your configured provider |
+| **Mask** | Replace PII with placeholders, send to OpenAI or Anthropic, restore in response |
+| **Route** | PII requests stay on your local LLM (Ollama, vLLM, llama.cpp), others go to OpenAI or Anthropic |
 
 ## Browser Extension (Beta)
 
@@ -40,7 +40,7 @@ Open source (Apache 2.0). Built in public — early feedback shapes the product.
 ## Features
 
 - **PII Detection** — Names, emails, phone numbers, credit cards, IBANs, and more
-- **Secrets Detection** — API keys, tokens, private keys caught before they reach the LLM
+- **Secrets Detection** — API keys, tokens, private keys caught before they reach OpenAI or Anthropic
 - **Streaming Support** — Real-time unmasking as tokens arrive
 - **24 Languages** — English, German, French, and 21 more
 - **OpenAI** — Works with OpenAI and compatible APIs (Azure, OpenRouter, Groq, Together AI, etc.)
index 3603f76175fb8af79233de57e3014f81dbc05e63..826173ec130d3f3a04a6390fa354bca6fa163594 100644 (file)
@@ -90,7 +90,7 @@ Open `http://localhost:3000/dashboard` in your browser to see:
 
 - Request history
 - Detected PII entities
-- Masked content sent to the LLM
+- Masked content sent to OpenAI or Anthropic
 
 <Frame>
   <img src="/images/dashboard.png" alt="PasteGuard Dashboard" />
index 734749613ea939e0e856b012ed41351a45c32214..7d01eee00f974d7b66e020c4c6fae62015478f12 100644 (file)
@@ -1,6 +1,6 @@
 {
   "name": "pasteguard",
-  "version": "0.1.0",
+  "version": "0.2.1",
   "description": "Privacy proxy for LLMs. Masks personal data and secrets before sending to your provider.",
   "type": "module",
   "main": "src/index.ts",
index e5990a685f1245406549ca7018fa876abfd76cd4..121a38002834467f235de0900180ab8245ffdb23 100644 (file)
@@ -13,7 +13,7 @@ describe("GET /info", () => {
 
     const body = (await res.json()) as Record<string, unknown>;
     expect(body.name).toBe("PasteGuard");
-    expect(body.version).toBe("0.1.0");
+    expect(body.version).toMatch(/^\d+\.\d+\.\d+$/);
     expect(body.mode).toBeDefined();
     expect(body.providers).toBeDefined();
     expect(body.pii_detection).toBeDefined();
git clone https://git.99rst.org/PROJECT