Compare commits
1 Commits
auto-updat
...
auto-updat
| Author | SHA1 | Date | |
|---|---|---|---|
|
|
fe4f4bc540 |
@@ -38,7 +38,6 @@ ArgoCD homelab project
|
|||||||
|
|
||||||
| Application | Status |
|
| Application | Status |
|
||||||
| :--- | :---: |
|
| :--- | :---: |
|
||||||
| **comfyui** | [](https://ag.hexor.cy/applications/argocd/comfyui) |
|
|
||||||
| **gitea** | [](https://ag.hexor.cy/applications/argocd/gitea) |
|
| **gitea** | [](https://ag.hexor.cy/applications/argocd/gitea) |
|
||||||
| **greece-notifier** | [](https://ag.hexor.cy/applications/argocd/greece-notifier) |
|
| **greece-notifier** | [](https://ag.hexor.cy/applications/argocd/greece-notifier) |
|
||||||
| **hexound** | [](https://ag.hexor.cy/applications/argocd/hexound) |
|
| **hexound** | [](https://ag.hexor.cy/applications/argocd/hexound) |
|
||||||
|
|||||||
@@ -1,20 +0,0 @@
|
|||||||
apiVersion: argoproj.io/v1alpha1
|
|
||||||
kind: Application
|
|
||||||
metadata:
|
|
||||||
name: comfyui
|
|
||||||
namespace: argocd
|
|
||||||
spec:
|
|
||||||
project: apps
|
|
||||||
destination:
|
|
||||||
namespace: comfyui
|
|
||||||
server: https://kubernetes.default.svc
|
|
||||||
source:
|
|
||||||
repoURL: ssh://git@gt.hexor.cy:30022/ab/homelab.git
|
|
||||||
targetRevision: HEAD
|
|
||||||
path: k8s/apps/comfyui
|
|
||||||
syncPolicy:
|
|
||||||
automated:
|
|
||||||
selfHeal: true
|
|
||||||
prune: true
|
|
||||||
syncOptions:
|
|
||||||
- CreateNamespace=true
|
|
||||||
@@ -1,57 +0,0 @@
|
|||||||
apiVersion: apps/v1
|
|
||||||
kind: Deployment
|
|
||||||
metadata:
|
|
||||||
name: comfyui
|
|
||||||
namespace: comfyui
|
|
||||||
labels:
|
|
||||||
app: comfyui
|
|
||||||
spec:
|
|
||||||
replicas: 1
|
|
||||||
selector:
|
|
||||||
matchLabels:
|
|
||||||
app: comfyui
|
|
||||||
template:
|
|
||||||
metadata:
|
|
||||||
labels:
|
|
||||||
app: comfyui
|
|
||||||
spec:
|
|
||||||
runtimeClassName: nvidia
|
|
||||||
tolerations:
|
|
||||||
- key: workload
|
|
||||||
operator: Equal
|
|
||||||
value: desktop
|
|
||||||
effect: NoSchedule
|
|
||||||
nodeSelector:
|
|
||||||
kubernetes.io/hostname: uk-desktop.tail2fe2d.ts.net
|
|
||||||
# Fix permissions mismatch usually happening when mapping host paths
|
|
||||||
securityContext:
|
|
||||||
runAsUser: 0
|
|
||||||
initContainers:
|
|
||||||
- name: create-data-dir
|
|
||||||
image: busybox
|
|
||||||
command: ["sh", "-c", "mkdir -p /host.data && chown -R 1000:1000 /host.data"]
|
|
||||||
volumeMounts:
|
|
||||||
- name: data
|
|
||||||
mountPath: /host.data
|
|
||||||
containers:
|
|
||||||
- name: comfyui
|
|
||||||
image: runpod/comfyui:latest-5090
|
|
||||||
imagePullPolicy: IfNotPresent
|
|
||||||
env:
|
|
||||||
- name: COMFYUI_PORT
|
|
||||||
value: "8188"
|
|
||||||
ports:
|
|
||||||
- containerPort: 8188
|
|
||||||
name: http
|
|
||||||
protocol: TCP
|
|
||||||
resources:
|
|
||||||
limits:
|
|
||||||
nvidia.com/gpu: 1
|
|
||||||
volumeMounts:
|
|
||||||
- name: data
|
|
||||||
# For ai-dock images, /workspace is the persistent user directory
|
|
||||||
mountPath: /workspace
|
|
||||||
volumes:
|
|
||||||
- name: data
|
|
||||||
persistentVolumeClaim:
|
|
||||||
claimName: comfyui-data-pvc
|
|
||||||
@@ -1,9 +0,0 @@
|
|||||||
apiVersion: kustomize.config.k8s.io/v1beta1
|
|
||||||
kind: Kustomization
|
|
||||||
|
|
||||||
resources:
|
|
||||||
- namespace.yaml
|
|
||||||
- local-pv.yaml
|
|
||||||
- pvc.yaml
|
|
||||||
- deployment.yaml
|
|
||||||
- service.yaml
|
|
||||||
@@ -1,22 +0,0 @@
|
|||||||
apiVersion: v1
|
|
||||||
kind: PersistentVolume
|
|
||||||
metadata:
|
|
||||||
name: comfyui-data-pv
|
|
||||||
spec:
|
|
||||||
capacity:
|
|
||||||
storage: 200Gi
|
|
||||||
volumeMode: Filesystem
|
|
||||||
accessModes:
|
|
||||||
- ReadWriteOnce
|
|
||||||
persistentVolumeReclaimPolicy: Retain
|
|
||||||
storageClassName: local-path
|
|
||||||
local:
|
|
||||||
path: /data/comfyui
|
|
||||||
nodeAffinity:
|
|
||||||
required:
|
|
||||||
nodeSelectorTerms:
|
|
||||||
- matchExpressions:
|
|
||||||
- key: kubernetes.io/hostname
|
|
||||||
operator: In
|
|
||||||
values:
|
|
||||||
- uk-desktop.tail2fe2d.ts.net
|
|
||||||
@@ -1,4 +0,0 @@
|
|||||||
apiVersion: v1
|
|
||||||
kind: Namespace
|
|
||||||
metadata:
|
|
||||||
name: comfyui
|
|
||||||
@@ -1,12 +0,0 @@
|
|||||||
apiVersion: v1
|
|
||||||
kind: PersistentVolumeClaim
|
|
||||||
metadata:
|
|
||||||
name: comfyui-data-pvc
|
|
||||||
namespace: comfyui
|
|
||||||
spec:
|
|
||||||
accessModes:
|
|
||||||
- ReadWriteOnce
|
|
||||||
storageClassName: local-path
|
|
||||||
resources:
|
|
||||||
requests:
|
|
||||||
storage: 200Gi
|
|
||||||
@@ -1,15 +0,0 @@
|
|||||||
apiVersion: v1
|
|
||||||
kind: Service
|
|
||||||
metadata:
|
|
||||||
name: comfyui
|
|
||||||
namespace: comfyui
|
|
||||||
labels:
|
|
||||||
app: comfyui
|
|
||||||
spec:
|
|
||||||
ports:
|
|
||||||
- name: http
|
|
||||||
port: 8188
|
|
||||||
targetPort: 8188
|
|
||||||
protocol: TCP
|
|
||||||
selector:
|
|
||||||
app: comfyui
|
|
||||||
@@ -85,8 +85,6 @@ spec:
|
|||||||
value: "queue"
|
value: "queue"
|
||||||
- name: QUEUE_BULL_REDIS_HOST
|
- name: QUEUE_BULL_REDIS_HOST
|
||||||
value: "n8n-redis"
|
value: "n8n-redis"
|
||||||
- name: QUEUE_BULL_REDIS_PORT
|
|
||||||
value: "6379"
|
|
||||||
- name: NODE_ENV
|
- name: NODE_ENV
|
||||||
value: "production"
|
value: "production"
|
||||||
- name: WEBHOOK_URL
|
- name: WEBHOOK_URL
|
||||||
@@ -134,7 +132,7 @@ spec:
|
|||||||
memory: 512Mi
|
memory: 512Mi
|
||||||
limits:
|
limits:
|
||||||
cpu: 4000m
|
cpu: 4000m
|
||||||
memory: 2048Mi
|
memory: 2048Gi
|
||||||
livenessProbe:
|
livenessProbe:
|
||||||
httpGet:
|
httpGet:
|
||||||
path: /healthz
|
path: /healthz
|
||||||
|
|||||||
@@ -1,84 +0,0 @@
|
|||||||
---
|
|
||||||
apiVersion: apps/v1
|
|
||||||
kind: Deployment
|
|
||||||
metadata:
|
|
||||||
name: n8n-worker
|
|
||||||
labels:
|
|
||||||
app: n8n
|
|
||||||
component: worker
|
|
||||||
spec:
|
|
||||||
replicas: 2
|
|
||||||
selector:
|
|
||||||
matchLabels:
|
|
||||||
app: n8n
|
|
||||||
component: worker
|
|
||||||
template:
|
|
||||||
metadata:
|
|
||||||
labels:
|
|
||||||
app: n8n
|
|
||||||
component: worker
|
|
||||||
spec:
|
|
||||||
serviceAccountName: n8n
|
|
||||||
containers:
|
|
||||||
- name: n8n-worker
|
|
||||||
image: n8nio/n8n:latest
|
|
||||||
command:
|
|
||||||
- n8n
|
|
||||||
- worker
|
|
||||||
env:
|
|
||||||
- name: HOME
|
|
||||||
value: "/home/node"
|
|
||||||
- name: N8N_ENFORCE_SETTINGS_FILE_PERMISSIONS
|
|
||||||
value: "true"
|
|
||||||
- name: EXECUTIONS_MODE
|
|
||||||
value: "queue"
|
|
||||||
- name: QUEUE_BULL_REDIS_HOST
|
|
||||||
value: "n8n-redis"
|
|
||||||
- name: QUEUE_BULL_REDIS_PORT
|
|
||||||
value: "6379"
|
|
||||||
- name: NODE_ENV
|
|
||||||
value: "production"
|
|
||||||
- name: GENERIC_TIMEZONE
|
|
||||||
value: "Europe/Moscow"
|
|
||||||
- name: TZ
|
|
||||||
value: "Europe/Moscow"
|
|
||||||
- name: DB_TYPE
|
|
||||||
value: "postgresdb"
|
|
||||||
- name: DB_POSTGRESDB_HOST
|
|
||||||
value: "psql.psql.svc"
|
|
||||||
- name: DB_POSTGRESDB_DATABASE
|
|
||||||
value: "n8n"
|
|
||||||
- name: DB_POSTGRESDB_USER
|
|
||||||
valueFrom:
|
|
||||||
secretKeyRef:
|
|
||||||
name: credentials
|
|
||||||
key: username
|
|
||||||
- name: DB_POSTGRESDB_PASSWORD
|
|
||||||
valueFrom:
|
|
||||||
secretKeyRef:
|
|
||||||
name: credentials
|
|
||||||
key: password
|
|
||||||
- name: N8N_ENCRYPTION_KEY
|
|
||||||
valueFrom:
|
|
||||||
secretKeyRef:
|
|
||||||
name: credentials
|
|
||||||
key: encryptionkey
|
|
||||||
volumeMounts:
|
|
||||||
- name: n8n-data
|
|
||||||
mountPath: /home/node/.n8n
|
|
||||||
resources:
|
|
||||||
requests:
|
|
||||||
cpu: 500m
|
|
||||||
memory: 512Mi
|
|
||||||
limits:
|
|
||||||
cpu: 2000m
|
|
||||||
memory: 2048Mi
|
|
||||||
volumes:
|
|
||||||
- name: n8n-data
|
|
||||||
persistentVolumeClaim:
|
|
||||||
claimName: n8n-data
|
|
||||||
securityContext:
|
|
||||||
runAsUser: 1000
|
|
||||||
runAsGroup: 1000
|
|
||||||
runAsNonRoot: true
|
|
||||||
fsGroup: 1000
|
|
||||||
@@ -10,7 +10,7 @@ resources:
|
|||||||
- paddleocr-deployment.yaml
|
- paddleocr-deployment.yaml
|
||||||
- paddleocr-service.yaml
|
- paddleocr-service.yaml
|
||||||
- deployment-main.yaml
|
- deployment-main.yaml
|
||||||
- deployment-worker.yaml
|
# - deployment-worker.yaml
|
||||||
- deployment-runner.yaml
|
- deployment-runner.yaml
|
||||||
- service.yaml
|
- service.yaml
|
||||||
- ingress.yaml
|
- ingress.yaml
|
||||||
|
|||||||
@@ -3,23 +3,19 @@ kind: Kustomization
|
|||||||
|
|
||||||
resources:
|
resources:
|
||||||
- external-secrets.yaml
|
- external-secrets.yaml
|
||||||
- local-pv.yaml
|
|
||||||
|
|
||||||
helmCharts:
|
helmCharts:
|
||||||
- name: ollama
|
- name: ollama
|
||||||
repo: https://otwld.github.io/ollama-helm/
|
repo: https://otwld.github.io/ollama-helm/
|
||||||
version: 1.49.0
|
version: 0.4.0
|
||||||
releaseName: ollama
|
releaseName: ollama
|
||||||
namespace: ollama
|
namespace: ollama
|
||||||
valuesFile: ollama-values.yaml
|
valuesFile: ollama-values.yaml
|
||||||
includeCRDs: true
|
includeCRDs: true
|
||||||
- name: open-webui
|
- name: open-webui
|
||||||
repo: https://helm.openwebui.com/
|
repo: https://helm.openwebui.com/
|
||||||
version: 12.8.1
|
version: 8.14.0
|
||||||
releaseName: openweb-ui
|
releaseName: openweb-ui
|
||||||
namespace: ollama
|
namespace: ollama
|
||||||
valuesFile: openweb-ui-values.yaml
|
valuesFile: openweb-ui-values.yaml
|
||||||
includeCRDs: true
|
includeCRDs: true
|
||||||
|
|
||||||
patches:
|
|
||||||
- path: patch-runtimeclass.yaml
|
|
||||||
@@ -1,22 +0,0 @@
|
|||||||
apiVersion: v1
|
|
||||||
kind: PersistentVolume
|
|
||||||
metadata:
|
|
||||||
name: ollama-local-pv
|
|
||||||
spec:
|
|
||||||
capacity:
|
|
||||||
storage: 100Gi
|
|
||||||
volumeMode: Filesystem
|
|
||||||
accessModes:
|
|
||||||
- ReadWriteOnce
|
|
||||||
persistentVolumeReclaimPolicy: Retain
|
|
||||||
storageClassName: local-path
|
|
||||||
local:
|
|
||||||
path: /var/lib/ollama
|
|
||||||
nodeAffinity:
|
|
||||||
required:
|
|
||||||
nodeSelectorTerms:
|
|
||||||
- matchExpressions:
|
|
||||||
- key: kubernetes.io/hostname
|
|
||||||
operator: In
|
|
||||||
values:
|
|
||||||
- uk-desktop.tail2fe2d.ts.net
|
|
||||||
@@ -16,7 +16,3 @@ ollama:
|
|||||||
enabled: true
|
enabled: true
|
||||||
type: 'nvidia'
|
type: 'nvidia'
|
||||||
number: 1
|
number: 1
|
||||||
persistentVolume:
|
|
||||||
enabled: true
|
|
||||||
size: 100Gi
|
|
||||||
storageClass: "local-path"
|
|
||||||
|
|||||||
@@ -1,4 +1,4 @@
|
|||||||
clusterDomain: cluster.local
|
clusterDomain: ai.hexor.cy
|
||||||
|
|
||||||
extraEnvVars:
|
extraEnvVars:
|
||||||
GLOBAL_LOG_LEVEL: debug
|
GLOBAL_LOG_LEVEL: debug
|
||||||
@@ -32,22 +32,12 @@ ollama:
|
|||||||
|
|
||||||
pipelines:
|
pipelines:
|
||||||
enabled: true
|
enabled: true
|
||||||
nodeSelector:
|
|
||||||
kubernetes.io/hostname: master.tail2fe2d.ts.net
|
|
||||||
|
|
||||||
tika:
|
tika:
|
||||||
enabled: true
|
enabled: true
|
||||||
nodeSelector:
|
|
||||||
kubernetes.io/hostname: master.tail2fe2d.ts.net
|
|
||||||
|
|
||||||
websocket:
|
websocket:
|
||||||
enabled: true
|
enabled: true
|
||||||
nodeSelector:
|
|
||||||
kubernetes.io/hostname: master.tail2fe2d.ts.net
|
|
||||||
redis:
|
|
||||||
master:
|
|
||||||
nodeSelector:
|
|
||||||
kubernetes.io/hostname: master.tail2fe2d.ts.net
|
|
||||||
|
|
||||||
ingress:
|
ingress:
|
||||||
enabled: true
|
enabled: true
|
||||||
@@ -56,5 +46,7 @@ ingress:
|
|||||||
cert-manager.io/cluster-issuer: letsencrypt
|
cert-manager.io/cluster-issuer: letsencrypt
|
||||||
traefik.ingress.kubernetes.io/router.middlewares: kube-system-https-redirect@kubernetescrd
|
traefik.ingress.kubernetes.io/router.middlewares: kube-system-https-redirect@kubernetescrd
|
||||||
host: "ai.hexor.cy"
|
host: "ai.hexor.cy"
|
||||||
tls: true
|
tls:
|
||||||
existingSecret: ollama-tls
|
- hosts:
|
||||||
|
- '*.hexor.cy'
|
||||||
|
secretName: ollama-tls
|
||||||
@@ -1,9 +0,0 @@
|
|||||||
apiVersion: apps/v1
|
|
||||||
kind: Deployment
|
|
||||||
metadata:
|
|
||||||
name: ollama
|
|
||||||
namespace: ollama
|
|
||||||
spec:
|
|
||||||
template:
|
|
||||||
spec:
|
|
||||||
runtimeClassName: nvidia
|
|
||||||
@@ -10,14 +10,3 @@ tolerations:
|
|||||||
runtimeClassName: nvidia
|
runtimeClassName: nvidia
|
||||||
|
|
||||||
setAsDefault: false
|
setAsDefault: false
|
||||||
|
|
||||||
config:
|
|
||||||
default: any
|
|
||||||
map:
|
|
||||||
any: |-
|
|
||||||
version: v1
|
|
||||||
sharing:
|
|
||||||
timeSlicing:
|
|
||||||
resources:
|
|
||||||
- name: nvidia.com/gpu
|
|
||||||
replicas: 4
|
|
||||||
|
|||||||
@@ -260,7 +260,7 @@ data:
|
|||||||
to: 0
|
to: 0
|
||||||
datasourceUid: P76F38748CEC837F0
|
datasourceUid: P76F38748CEC837F0
|
||||||
model:
|
model:
|
||||||
expr: 'node_load15 / on(instance) group_left count by(instance)(node_cpu_seconds_total{mode="idle"})'
|
expr: 'node_load5 / on(instance) group_left count by(instance)(node_cpu_seconds_total{mode="idle"})'
|
||||||
refId: A
|
refId: A
|
||||||
intervalMs: 1000
|
intervalMs: 1000
|
||||||
maxDataPoints: 43200
|
maxDataPoints: 43200
|
||||||
@@ -273,7 +273,7 @@ data:
|
|||||||
conditions:
|
conditions:
|
||||||
- evaluator:
|
- evaluator:
|
||||||
params:
|
params:
|
||||||
- 2
|
- 0.8
|
||||||
type: gt
|
type: gt
|
||||||
operator:
|
operator:
|
||||||
type: and
|
type: and
|
||||||
@@ -283,16 +283,16 @@ data:
|
|||||||
type: __expr__
|
type: __expr__
|
||||||
uid: __expr__
|
uid: __expr__
|
||||||
expression: A
|
expression: A
|
||||||
reducer: last
|
reducer: max
|
||||||
refId: B
|
refId: B
|
||||||
type: reduce
|
type: reduce
|
||||||
noDataState: NoData
|
noDataState: NoData
|
||||||
execErrState: Alerting
|
execErrState: Alerting
|
||||||
for: 15m
|
for: 5m
|
||||||
annotations:
|
annotations:
|
||||||
node: '{{ $labels.instance }}'
|
node: '{{ $labels.instance }}'
|
||||||
load_average: '{{ printf "%.2f" $values.A }}'
|
load_average: '{{ printf "%.2f" $values.A }}'
|
||||||
summary: 'Node load average is critically high relative to CPU count'
|
summary: 'Node load average is high relative to CPU count'
|
||||||
labels:
|
labels:
|
||||||
severity: warning
|
severity: warning
|
||||||
|
|
||||||
|
|||||||
85
k8s/core/prom-stack/grafana-values.yaml
Normal file
85
k8s/core/prom-stack/grafana-values.yaml
Normal file
@@ -0,0 +1,85 @@
|
|||||||
|
envFromSecret: grafana-admin
|
||||||
|
nodeSelector:
|
||||||
|
kubernetes.io/hostname: master.tail2fe2d.ts.net
|
||||||
|
|
||||||
|
admin:
|
||||||
|
existingSecret: grafana-admin
|
||||||
|
userKey: username
|
||||||
|
passwordKey: password
|
||||||
|
|
||||||
|
grafana.ini:
|
||||||
|
auth:
|
||||||
|
signout_redirect_url: https://idm.hexor.cy/application/o/grafana/end-session/
|
||||||
|
# oauth_auto_login: true
|
||||||
|
auth.generic_oauth:
|
||||||
|
name: authentik
|
||||||
|
enabled: true
|
||||||
|
scopes: "openid profile email"
|
||||||
|
auth_url: https://idm.hexor.cy/application/o/authorize/
|
||||||
|
token_url: https://idm.hexor.cy/application/o/token/
|
||||||
|
api_url: https://idm.hexor.cy/application/o/userinfo/
|
||||||
|
role_attribute_path: >-
|
||||||
|
contains(groups, 'Grafana Admin') && 'Admin' ||
|
||||||
|
contains(groups, 'Grafana Editors') && 'Editor' ||
|
||||||
|
contains(groups, 'Grafana Viewer') && 'Viewer'
|
||||||
|
database:
|
||||||
|
type: postgres
|
||||||
|
host: psql.psql.svc:5432
|
||||||
|
name: grafana
|
||||||
|
user: grafana
|
||||||
|
ssl_mode: disable
|
||||||
|
|
||||||
|
datasources:
|
||||||
|
datasources.yaml:
|
||||||
|
apiVersion: 1
|
||||||
|
datasources:
|
||||||
|
- name: Prometheus Local
|
||||||
|
type: prometheus
|
||||||
|
url: http://prometheus-kube-prometheus-prometheus.prometheus.svc:9090
|
||||||
|
access: proxy
|
||||||
|
isDefault: true
|
||||||
|
- name: Loki
|
||||||
|
type: loki
|
||||||
|
url: http://loki-gateway.prometheus.svc:80
|
||||||
|
access: proxy
|
||||||
|
|
||||||
|
ingress:
|
||||||
|
enabled: true
|
||||||
|
ingressClassName: traefik
|
||||||
|
annotations:
|
||||||
|
cert-manager.io/cluster-issuer: letsencrypt
|
||||||
|
traefik.ingress.kubernetes.io/router.middlewares: kube-system-https-redirect@kubernetescrd
|
||||||
|
hosts:
|
||||||
|
- gf.hexor.cy
|
||||||
|
tls:
|
||||||
|
- secretName: grafana-tls
|
||||||
|
hosts:
|
||||||
|
- '*.hexor.cy'
|
||||||
|
|
||||||
|
extraConfigmapMounts:
|
||||||
|
- name: grafana-alerting-rules
|
||||||
|
mountPath: /etc/grafana/provisioning/alerting/rules.yaml
|
||||||
|
configMap: grafana-alerting
|
||||||
|
subPath: rules.yaml
|
||||||
|
readOnly: true
|
||||||
|
- name: grafana-alerting-contactpoints
|
||||||
|
mountPath: /etc/grafana/provisioning/alerting/contactpoints.yaml
|
||||||
|
configMap: grafana-alerting
|
||||||
|
subPath: contactpoints.yaml
|
||||||
|
readOnly: true
|
||||||
|
- name: grafana-alerting-policies
|
||||||
|
mountPath: /etc/grafana/provisioning/alerting/policies.yaml
|
||||||
|
configMap: grafana-alerting
|
||||||
|
subPath: policies.yaml
|
||||||
|
readOnly: true
|
||||||
|
|
||||||
|
envValueFrom:
|
||||||
|
TELEGRAM_BOT_TOKEN:
|
||||||
|
secretKeyRef:
|
||||||
|
name: grafana-telegram
|
||||||
|
key: bot-token
|
||||||
|
TELEGRAM_CHAT_ID:
|
||||||
|
secretKeyRef:
|
||||||
|
name: grafana-telegram
|
||||||
|
key: chat-id
|
||||||
|
|
||||||
@@ -16,6 +16,14 @@ helmCharts:
|
|||||||
valuesFile: prom-values.yaml
|
valuesFile: prom-values.yaml
|
||||||
includeCRDs: true
|
includeCRDs: true
|
||||||
|
|
||||||
|
- name: grafana
|
||||||
|
repo: https://grafana.github.io/helm-charts
|
||||||
|
version: 10.2.0
|
||||||
|
releaseName: grafana
|
||||||
|
namespace: prometheus
|
||||||
|
valuesFile: grafana-values.yaml
|
||||||
|
includeCRDs: true
|
||||||
|
|
||||||
- name: loki
|
- name: loki
|
||||||
repo: https://grafana.github.io/helm-charts
|
repo: https://grafana.github.io/helm-charts
|
||||||
version: 6.29.0
|
version: 6.29.0
|
||||||
|
|||||||
@@ -1,4 +1,5 @@
|
|||||||
|
grafana:
|
||||||
|
enabled: false
|
||||||
|
|
||||||
alertmanager:
|
alertmanager:
|
||||||
config:
|
config:
|
||||||
@@ -91,83 +92,3 @@ prometheus:
|
|||||||
requests:
|
requests:
|
||||||
storage: 400Gi
|
storage: 400Gi
|
||||||
|
|
||||||
grafana:
|
|
||||||
enabled: true
|
|
||||||
|
|
||||||
envFromSecret: grafana-admin
|
|
||||||
nodeSelector:
|
|
||||||
kubernetes.io/hostname: master.tail2fe2d.ts.net
|
|
||||||
|
|
||||||
admin:
|
|
||||||
existingSecret: grafana-admin
|
|
||||||
userKey: username
|
|
||||||
passwordKey: password
|
|
||||||
|
|
||||||
grafana.ini:
|
|
||||||
auth:
|
|
||||||
signout_redirect_url: https://idm.hexor.cy/application/o/grafana/end-session/
|
|
||||||
auth.generic_oauth:
|
|
||||||
name: authentik
|
|
||||||
enabled: true
|
|
||||||
scopes: "openid profile email"
|
|
||||||
auth_url: https://idm.hexor.cy/application/o/authorize/
|
|
||||||
token_url: https://idm.hexor.cy/application/o/token/
|
|
||||||
api_url: https://idm.hexor.cy/application/o/userinfo/
|
|
||||||
role_attribute_path: >-
|
|
||||||
contains(groups, 'Grafana Admin') && 'Admin' ||
|
|
||||||
contains(groups, 'Grafana Editors') && 'Editor' ||
|
|
||||||
contains(groups, 'Grafana Viewer') && 'Viewer'
|
|
||||||
database:
|
|
||||||
type: postgres
|
|
||||||
host: psql.psql.svc:5432
|
|
||||||
name: grafana
|
|
||||||
user: grafana
|
|
||||||
ssl_mode: disable
|
|
||||||
|
|
||||||
# The Loki datasource config needs to be preserved,
|
|
||||||
# but instead of "datasources.datasources.yaml", we define it like this for the prometheus-stack chart:
|
|
||||||
additionalDataSources:
|
|
||||||
- name: Loki
|
|
||||||
type: loki
|
|
||||||
url: http://loki-gateway.prometheus.svc:80
|
|
||||||
access: proxy
|
|
||||||
|
|
||||||
ingress:
|
|
||||||
enabled: true
|
|
||||||
ingressClassName: traefik
|
|
||||||
annotations:
|
|
||||||
cert-manager.io/cluster-issuer: letsencrypt
|
|
||||||
traefik.ingress.kubernetes.io/router.middlewares: kube-system-https-redirect@kubernetescrd
|
|
||||||
hosts:
|
|
||||||
- gf.hexor.cy
|
|
||||||
tls:
|
|
||||||
- secretName: grafana-tls
|
|
||||||
hosts:
|
|
||||||
- '*.hexor.cy'
|
|
||||||
|
|
||||||
extraConfigmapMounts:
|
|
||||||
- name: grafana-alerting-rules
|
|
||||||
mountPath: /etc/grafana/provisioning/alerting/rules.yaml
|
|
||||||
configMap: grafana-alerting
|
|
||||||
subPath: rules.yaml
|
|
||||||
readOnly: true
|
|
||||||
- name: grafana-alerting-contactpoints
|
|
||||||
mountPath: /etc/grafana/provisioning/alerting/contactpoints.yaml
|
|
||||||
configMap: grafana-alerting
|
|
||||||
subPath: contactpoints.yaml
|
|
||||||
readOnly: true
|
|
||||||
- name: grafana-alerting-policies
|
|
||||||
mountPath: /etc/grafana/provisioning/alerting/policies.yaml
|
|
||||||
configMap: grafana-alerting
|
|
||||||
subPath: policies.yaml
|
|
||||||
readOnly: true
|
|
||||||
|
|
||||||
envValueFrom:
|
|
||||||
TELEGRAM_BOT_TOKEN:
|
|
||||||
secretKeyRef:
|
|
||||||
name: grafana-telegram
|
|
||||||
key: bot-token
|
|
||||||
TELEGRAM_CHAT_ID:
|
|
||||||
secretKeyRef:
|
|
||||||
name: grafana-telegram
|
|
||||||
key: chat-id
|
|
||||||
|
|||||||
Reference in New Issue
Block a user