{
  "knxUltimateAI": {
    "title": "KNX AI (Analisi Traffico)",
    "sections": {
      "capture": "Cattura",
      "storage": "Storico e Summary",
      "detection": "Rilevamento e Avvisi",
      "llmConnection": "Connessione Assistente AI",
      "llmContext": "Contesto Assistente AI",
      "advanced": "Tuning Avanzato"
    },
    "properties": {
      "server": "Gateway",
      "name": "Nome",
      "topic": "Topic",
      "notifywrite": "Cattura GroupValue_Write",
      "notifyresponse": "Cattura GroupValue_Response",
      "notifyreadrequest": "Cattura GroupValue_Read",
      "analysisWindowSec": "Finestra analisi (secondi)",
      "historyWindowSec": "Finestra storico (secondi)",
      "historyStoreToDisk": "Archivia anche i telegrammi catturati su disco",
      "historyStoreRetentionDays": "Retention archivio su disco (giorni)",
      "maxEvents": "Eventi massimi in memoria",
      "emitIntervalSec": "Invia summary automatico (secondi, 0=off)",
      "topN": "Dimensione lista Top",
      "enablePattern": "Rileva pattern semplici (A -> B)",
      "patternMaxLagMs": "Ritardo massimo pattern (ms)",
      "patternMinCount": "Occorrenze minime pattern",
      "rateWindowSec": "Finestra rate (secondi)",
      "maxTelegramPerSecOverall": "Max telegrammi/sec totale (0=off)",
      "maxTelegramPerSecPerGA": "Max telegrammi/sec per GA (0=off)",
      "flapWindowSec": "Finestra flap (secondi)",
      "flapMaxChanges": "Max cambi per GA nella finestra (0=off)",
      "llmEnabled": "Abilita assistente LLM",
      "llmProvider": "Provider",
      "llmBaseUrl": "URL endpoint",
      "llmApiKey": "API key",
      "llmModel": "Modello",
      "llmSystemPrompt": "Prompt di sistema",
      "llmIncludeRaw": "Includi payload raw in hex",
      "llmIncludeFlowContext": "Includi inventario del progetto Node-RED",
      "llmIncludeDocsSnippets": "Includi estratti documentazione (help/README/esempi)",
      "llmDocsLanguage": "Lingua documentazione"
    },
    "outputs": {
      "summary": "Summary/Statistiche",
      "anomalies": "Anomalie",
      "assistant": "Assistente AI"
    },
    "selectlists": {
      "llmProvider": {
        "openai_compat": "Compatibile OpenAI (chat/completions)",
        "ollama": "Ollama (locale, beta)"
      }
    },
    "buttons": {
      "refreshModels": "Aggiorna",
      "installOllamaModel": "2) Installalo",
      "ollamaLibrary": "Libreria modelli",
      "downloadOllamaModel": "1) Scarica il modello"
    },
    "messages": {
      "loadingModels": "Carico i modelli…",
      "loadedModels": "Modelli caricati",
      "ollamaNotSupported": "Modalita locale Ollama: API key non richiesta. Endpoint predefinito: http://localhost:11434/api/chat.",
      "ollamaNoModels": "Nessun modello Ollama locale trovato. Installa un modello o scegli dalla libreria.",
      "installingOllamaModel": "Avvio Ollama e installo il modello…",
      "installedOllamaModel": "Modello Ollama installato",
      "installOllamaModelFailed": "Installazione modello Ollama non riuscita",
      "ollamaInstallSteps": "1) Apri la libreria, scegli un modello e copiane il nome (es. llama3.1). 2) Inserisci il nome nel campo Modello e clicca Installalo.",
      "ollamaStartedAuto": "Server Ollama avviato automaticamente."
    },
    "placeholder": {
      "llmBaseUrl": "https://api.openai.com/v1/chat/completions (o endpoint compatibile)",
      "llmApiKey": "Incolla la chiave (inizia con sk-)",
      "llmModel": "es. gpt-4o-mini",
      "llmSystemPrompt": "Opzionale. Lascia vuoto per default."
    },
    "sidebar": {
      "ui": {
        "refreshNodeList": "Aggiorna lista nodi",
        "refreshSummary": "Aggiorna summary",
        "auto": "Auto",
        "sections": {
          "summary": "Summary",
          "anomalies": "Anomalie",
          "ask": "Chiedi"
        },
        "empty": {
          "noNodes": "Nessun nodo KNX AI trovato.",
          "noAnomalies": "Nessuna anomalia."
        },
        "chat": {
          "placeholder": "Fai una domanda sul traffico KNX…",
          "send": "Invia",
          "pending": "Sto pensando…",
          "llmDisabled": "LLM disabilitato nella configurazione del nodo",
          "emptyAnswer": "(risposta vuota)"
        },
        "status": {
          "ready": "Pronto",
          "loadingNodes": "Carico nodi…",
          "loading": "Carico…",
          "asking": "Sto chiedendo…"
        },
        "errors": {
          "loadNodes": "Impossibile caricare i nodi",
          "loadState": "Impossibile caricare lo stato",
          "askFailed": "Richiesta fallita"
        }
      },
      "summary": {
        "noData": "Nessun dato disponibile.",
        "header": {
          "gateway": "Gateway: {{gatewayName}}",
          "updated": "Aggiornato: {{at}}"
        },
        "analysisWindowLine": "Finestra analisi: {{seconds}}s",
        "statsLine": "Telegrammi: {{telegrams}} · Rate: {{rate}}/s · Echoed: {{echoed}} · DPT sconosciuti: {{unknownDpt}}",
        "topGAsTitle": "Top Group Address:",
        "eventsTitle": "Eventi:",
        "patternsTitle": "Pattern (sequenze ricorrenti):",
        "patternItem": "{{from}} → {{to}}  ({{count}} volte entro {{withinMs}}ms)"
      }
    }
  }
}
