diff --git a/content/pt-br/docs/concepts/gopass.md b/content/pt-br/docs/concepts/gopass.md
new file mode 100644
index 0000000000000000000000000000000000000000..b90a8bfa8d957740a0ec51d1204d69aac9bbf7f9
--- /dev/null
+++ b/content/pt-br/docs/concepts/gopass.md
@@ -0,0 +1,9 @@
+---
+title: gopass
+description: Gerenciador de senhas
+---
+
+O gopass é um gerenciador de senhas.
+
+## Referências:
+- <https://www.gopass.pw/>
diff --git a/content/pt-br/docs/concepts/harbor.md b/content/pt-br/docs/concepts/harbor.md
new file mode 100644
index 0000000000000000000000000000000000000000..dfd8a8cb5d296d25cb8985be90615564650b2e7f
--- /dev/null
+++ b/content/pt-br/docs/concepts/harbor.md
@@ -0,0 +1,9 @@
+---
+title: Harbor
+description: Container Registry
+---
+
+O Harbor é um armazenador de imagens de containers.
+
+## Referências
+- <https://goharbor.io/>
diff --git a/content/pt-br/docs/guides/_index.md b/content/pt-br/docs/guides/_index.md
index b8a55ce9df6c2f7c94a0e1a5914972016f8b846d..dd15f9955930b47079fd56bccd72a26b02921d02 100644
--- a/content/pt-br/docs/guides/_index.md
+++ b/content/pt-br/docs/guides/_index.md
@@ -1,6 +1,4 @@
 ---
 title: Guias
-description: Guias de como fazer coisas.
+description: Guias de como fazer coisas
 ---
-
-
diff --git a/content/pt-br/docs/guides/adicao-disco-ceph.md b/content/pt-br/docs/guides/adicao-disco-ceph.md
deleted file mode 100644
index 77f3742f9b2bc3ba32b62e03ab856d9442e5a6c1..0000000000000000000000000000000000000000
--- a/content/pt-br/docs/guides/adicao-disco-ceph.md
+++ /dev/null
@@ -1,87 +0,0 @@
----
-title: Adição de disco no Ceph
----
-
-Para adicionar um disco, garanta que ele não tenha nenhuma partição primeiro:
-
-```console
-$ sgdisk -Z /dev/sda
-```
-
-Então, adicione:
-
-```console
-$ ceph-volume lvm create --data /dev/sda --block.db /dev/nvme0n1 --block.db-slots 16
-```
-
-## Comandos úteis
-
-Para mostrar todos os OSDs use um dos seguintes comandos:
-
-```console
-$ ceph osd df # lista
-$ ceph osd tree # árvore
-```
-
-O comando `ceph osd df` é útil para ver o balanceamento dos discos.
-
-Para mostrar o estado do Ceph faça:
-
-```console
-$ ceph status
-```
-
-Para saber detalhadamente o que tá acontecendo use:
-
-```console
-$ ceph health
-```
-
-## Pegar todos os seriais dos discos usados no Ceph
-
-```bash
-for i in $(ceph-volume lvm list | grep "/dev/sd" | awk -F" " '{print $2}'); do
-    echo -n $i ;
-    smartctl -i $i | grep -i "serial" | cut -d':' -f2;
-done;
-```
-
-Exemplo:
-
-```console
-barril2:~# for i in $(ceph-volume lvm list | grep "/dev/sd" | awk -F" " '{print $2}'); do \
-    echo -n $i ; \
-    smartctl -i $i | grep -i "serial" | cut -d':' -f2; \
-done;
-
-/dev/sdt    ZA15V0J9
-/dev/sdu    ZA161LHJ
-/dev/sdw    ZA16X2KA
-/dev/sdx    ZA161L54
-/dev/sdv    ZA15ZGFP
-barril2:~#
-```
-
-## Pegar todos os UIDs dos discos usados no Ceph
-
-```bash
-for i in $(ceph-volume lvm list | grep "/dev/sd" | awk -F" " '{print $2}' | cut -d'/' -f3); do
-    echo -n $i ;
-    ls -lah /dev/disk/by-id/ | grep $i | grep wwn;
-done;
-```
-
-Exemplo:
-
-```console
-barril2:~# for i in $(ceph-volume lvm list | grep "/dev/sd" | awk -F" " '{print $2}' | cut -d'/' -f3); do \
-    echo -n $i; \
-    ls -lah /dev/disk/by-id/ | grep $i | grep wwn; \
-done;
-
-sdtlrwxrwxrwx 1 root root    9 Jul 31 13:56 wwn-0x5000c500938f9337 -> ../../sdt
-sdulrwxrwxrwx 1 root root    9 Jul 31 13:56 wwn-0x5000c500938ec5fe -> ../../sdu
-sdwlrwxrwxrwx 1 root root    9 Jul 31 13:56 wwn-0x5000c500a265cafc -> ../../sdw
-sdxlrwxrwxrwx 1 root root    9 Jul 31 13:56 wwn-0x5000c500938f6677 -> ../../sdx
-sdvlrwxrwxrwx 1 root root    9 Jul 31 13:56 wwn-0x5000c500938f0559 -> ../../sdv
-```
diff --git a/content/pt-br/docs/guides/ceph/_index.md b/content/pt-br/docs/guides/ceph/_index.md
new file mode 100644
index 0000000000000000000000000000000000000000..0dd539163b963db1362bc1a17f76f87f85b009fc
--- /dev/null
+++ b/content/pt-br/docs/guides/ceph/_index.md
@@ -0,0 +1,4 @@
+---
+title: Ceph
+description: Guias relacionados ao Ceph
+---
diff --git a/content/pt-br/docs/guides/usando-ceph.md b/content/pt-br/docs/guides/ceph/como-adicionar-discos.md
similarity index 66%
rename from content/pt-br/docs/guides/usando-ceph.md
rename to content/pt-br/docs/guides/ceph/como-adicionar-discos.md
index 13621b01f93c5c547bfb0c69fafc21ca52a636ed..948bd8d6fb4977d8ba801a227d465815c5660888 100644
--- a/content/pt-br/docs/guides/usando-ceph.md
+++ b/content/pt-br/docs/guides/ceph/como-adicionar-discos.md
@@ -1,6 +1,6 @@
 ---
-title: Como usar o Ceph
-description: Como fazer tarefas cotidianas no Ceph
+title: Como adicionar discos no Ceph
+tags: [ceph]
 ---
 
 ## Como trocar disco
@@ -554,3 +554,249 @@ root@urquell:~/ceph#
 Por fim, agora que identificou o disco que pertence o bloco, basta ir no
 Proxmox e achar em qual máquina virtual está esse disco. No exemplo, é a
 máquina virtual de id 170 disco 2, o `/home` da bbbprod.
+
+## Como adicionar discos
+
+Para adicionar um disco, garanta que ele não tenha nenhuma partição primeiro:
+
+```console
+$ sgdisk -Z /dev/sda
+```
+
+Então, adicione:
+
+```console
+$ ceph-volume lvm create --data /dev/sda --block.db /dev/nvme0n1 --block.db-slots 16
+```
+
+### Comandos úteis
+
+Para mostrar todos os OSDs use um dos seguintes comandos:
+
+```console
+$ ceph osd df # lista
+$ ceph osd tree # árvore
+```
+
+O comando `ceph osd df` é útil para ver o balanceamento dos discos.
+
+Para mostrar o estado do Ceph faça:
+
+```console
+$ ceph status
+```
+
+Para saber detalhadamente o que tá acontecendo use:
+
+```console
+$ ceph health
+```
+
+### Pegar todos os seriais dos discos usados no Ceph
+
+```bash
+for i in $(ceph-volume lvm list | grep "/dev/sd" | awk -F" " '{print $2}'); do
+    echo -n $i ;
+    smartctl -i $i | grep -i "serial" | cut -d':' -f2;
+done;
+```
+
+Exemplo:
+
+```console
+barril2:~# for i in $(ceph-volume lvm list | grep "/dev/sd" | awk -F" " '{print $2}'); do \
+    echo -n $i ; \
+    smartctl -i $i | grep -i "serial" | cut -d':' -f2; \
+done;
+
+/dev/sdt    ZA15V0J9
+/dev/sdu    ZA161LHJ
+/dev/sdw    ZA16X2KA
+/dev/sdx    ZA161L54
+/dev/sdv    ZA15ZGFP
+barril2:~#
+```
+
+### Pegar todos os UIDs dos discos usados no Ceph
+
+```bash
+for i in $(ceph-volume lvm list | grep "/dev/sd" | awk -F" " '{print $2}' | cut -d'/' -f3); do
+    echo -n $i ;
+    ls -lah /dev/disk/by-id/ | grep $i | grep wwn;
+done;
+```
+
+Exemplo:
+
+```console
+barril2:~# for i in $(ceph-volume lvm list | grep "/dev/sd" | awk -F" " '{print $2}' | cut -d'/' -f3); do \
+    echo -n $i; \
+    ls -lah /dev/disk/by-id/ | grep $i | grep wwn; \
+done;
+
+sdtlrwxrwxrwx 1 root root    9 Jul 31 13:56 wwn-0x5000c500938f9337 -> ../../sdt
+sdulrwxrwxrwx 1 root root    9 Jul 31 13:56 wwn-0x5000c500938ec5fe -> ../../sdu
+sdwlrwxrwxrwx 1 root root    9 Jul 31 13:56 wwn-0x5000c500a265cafc -> ../../sdw
+sdxlrwxrwxrwx 1 root root    9 Jul 31 13:56 wwn-0x5000c500938f6677 -> ../../sdx
+sdvlrwxrwxrwx 1 root root    9 Jul 31 13:56 wwn-0x5000c500938f0559 -> ../../sdv
+```
+
+## Como gerenciar discos falhos no Ceph
+
+Se você está aqui, espero que seja porque você tenha recebido alguns alertas do
+Zabbix emitidos pelo Ceph Monitor dizendo que alguns OSDs não estão funcionando.
+O Ceph tenta ressucitar o disco quando isso acontece, mas se ele permanece
+falhando, o que se deve fazer é testar e remover o disco de operação.
+
+1. Primeiro precisamos identificar qual OSD está falhando:
+
+   ```console
+   barril4:~/scripts# ceph osd status
+   ID  HOST      USED  AVAIL  WR OPS  WR DATA  RD OPS  RD DATA  STATE
+    0  barril4  4732G  2836G     11     84.3k      1        0   exists,up
+    1  barril4     0      0       2     79.6k      0        0   autoout,exists
+    2  barril4  4826G  2741G      5     30.0k      3      228k  exists,up
+    3  barril4  4951G  2616G      6     65.3k      0        0   exists,up
+   ```
+
+   Observe que o OSD 1 não está `up`.
+
+1. Agora identificamos qual o disco falho:
+
+   ```console
+   barril4:~/scripts# ceph-volume lvm list | grep -A 19 '= osd.1 ='
+   ====== osd.1 =======
+
+     [db]          /dev/ceph-8e43d77e-ebc3-4c7e-9da8-475a37da59ae/osd-db-2c87d89f-23f3-4c76-b61c-f868c35486bc
+
+         block device              /dev/ceph-e42d4f35-b3d6-4aed-b288-c549d8b70941/osd-block-58e98ed2-a658-44ee-9992-d15f054a7694
+         block uuid                JojsTQ-cY4R-fG2y-AAjv-IfDI-3YJT-34XkYA
+         cephx lockbox secret
+         cluster fsid              c30ecc8d-440e-4608-b3fe-5020337ae11d
+         cluster name              ceph
+         crush device class        None
+         db device                 /dev/ceph-8e43d77e-ebc3-4c7e-9da8-475a37da59ae/osd-db-2c87d89f-23f3-4c76-b61c-f868c35486bc
+         db uuid                   s0kw8e-iW38-boMx-9xTV-sXfT-C8Ju-lXkaiH
+         encrypted                 0
+         osd fsid                  58e98ed2-a658-44ee-9992-d15f054a7694
+         osd id                    1
+         osdspec affinity
+         type                      db
+         vdo                       0
+         devices                   /dev/sdh
+
+   ```
+
+   Note então que o disco falho é o `/dev/sdh` neste caso.
+
+1. Podemos zerar o disco e verificar se ocorre alguma falha:
+
+   ```console
+   barril4:~# dd if=/dev/zero of=/dev/sdh bs=4M oflag=sync status=progress &; \
+     dmesg -TW
+   ```
+
+   Isso vai demorar bastante, então rode em uma sessão do tmux. Se o `dd` terminar
+   a sua execução e o `dmesg` não acusar nenhum erro, o disco ainda é *usável*,
+   porém definitivamente suspeito. Zerar o disco arrumou os setores corrompidos
+   do disco e o gerenciador do disco conseguiu identificar e realocar os setores
+   defeituosos. De toda forma o disco merece uma inspeção com `smartctl`:
+
+   ```console
+   barril4:~# smartctl -a /dev/sdh
+   smartctl 7.3 2022-02-28 r5338 [x86_64-linux-6.1.0-0.deb11.5-amd64] (local build)
+   Copyright (C) 2002-22, Bruce Allen, Christian Franke, www.smartmontools.org
+
+   === START OF INFORMATION SECTION ===
+   Vendor:               SEAGATE
+   Product:              ST8000NM0075
+   Revision:             E002
+   Compliance:           SPC-4
+   User Capacity:        8,001,563,222,016 bytes [8.00 TB]
+   Logical block size:   512 bytes
+   Physical block size:  4096 bytes
+   LU is fully provisioned
+   Rotation Rate:        7200 rpm
+   Form Factor:          3.5 inches
+   Logical Unit id:      0x5000c50093ff6bc7
+   Serial number:        ZA17WQSP0000R742QPZP
+   Device type:          disk
+   Transport protocol:   SAS (SPL-4)
+   Local Time is:        Sun Mar  3 18:04:07 2024 -03
+   SMART support is:     Available - device has SMART capability.
+   SMART support is:     Enabled
+   Temperature Warning:  Enabled
+
+   === START OF READ SMART DATA SECTION ===
+   SMART Health Status: DATA CHANNEL IMPENDING FAILURE DATA ERROR RATE TOO HIGH [asc=5d, ascq=32]
+
+   Grown defects during certification <not available>
+   Total blocks reassigned during format <not available>
+   Total new blocks reassigned = 49200
+   Power on minutes since format <not available>
+   Current Drive Temperature:     53 C
+   Drive Trip Temperature:        60 C
+
+   Accumulated power on time, hours:minutes 52214:46
+   Manufactured in week 19 of year 2017
+   Specified cycle count over device lifetime:  10000
+   Accumulated start-stop cycles:  80
+   Specified load-unload count over device lifetime:  300000
+   Accumulated load-unload cycles:  4216
+
+   Elements in grown defect list: 49236
+
+   Vendor (Seagate Cache) information
+     Blocks sent to initiator = 83987848
+     Blocks received from initiator = 354284152
+     Blocks read from cache and sent to initiator = 2331500192
+     Number of read and write commands whose size <= segment size = 577322949
+     Number of read and write commands whose size > segment size = 1980651
+
+   Vendor (Seagate/Hitachi) factory information
+     number of hours powered up = 52214.77
+     number of minutes until next internal SMART test = 25
+
+   Error counter log:
+              Errors Corrected by           Total   Correction     Gigabytes    Total
+                  ECC          rereads/    errors   algorithm      processed    uncorrected
+              fast | delayed   rewrites  corrected  invocations   [10^9 bytes]  errors
+   read:   2826058232    56169         0  2826114401      56169     450842.769           0
+   write:         0        0         0         0          0      91089.432           0
+
+   Non-medium error count:     6026
+
+
+   [GLTSD (Global Logging Target Save Disable) set. Enable Save with '-S on']
+   No Self-tests have been logged
+   ```
+
+   O que é importante neste diagnóstico é:
+
+   `Transport protocol:`
+   : Neste caso `SAS (SPL-4)` que indica se é SATA ou SAS.
+
+   `Accumulated power on time, hours:minutes`
+   : Tempo de operação do disco. Ao converter para anos, vemos que esse disco
+   está se aproximando da marca dos 6 anos.
+
+   `Manufactured in week {} of year {}`
+   : Quando o disco foi fabricado, o que indica de qual lote este disco é,
+   não sendo, por exemplo, da leva dos últimos 4 anos na escrita deste guia (2024).
+
+   `Elements in grown defect list:`
+   : Quantidade de setores ruins no disco. Se essa quantidade aumentar
+   gradualmente, esse disco precisa ser trocado.
+
+   `SMART Health Status:`
+   : O estado de erro que o SMART identificou. Neste caso, temos um problema
+   de comunicação, onde somas de verificação estão dando errado, indicando
+   uma falha iminente.
+
+1. Para retirar o disco, é altamente recomendado utilizar o `ledctl` para piscar
+   um LED vermelho no disco correspondente na controladora:
+
+   ```console
+   $ ledctl locate /dev/sdh
+   $ ledctl locate_off /dev/sdh
+   ```
diff --git a/content/pt-br/docs/guides/criando-ceph-object-gateway.md b/content/pt-br/docs/guides/ceph/como-criar-o-ceph-object-gateway.md
similarity index 97%
rename from content/pt-br/docs/guides/criando-ceph-object-gateway.md
rename to content/pt-br/docs/guides/ceph/como-criar-o-ceph-object-gateway.md
index 761eb9abc4cc84b221ddc95d4627416d78e4017a..93bd96a73807847000163f7cda8317d6ceeb2d90 100644
--- a/content/pt-br/docs/guides/criando-ceph-object-gateway.md
+++ b/content/pt-br/docs/guides/ceph/como-criar-o-ceph-object-gateway.md
@@ -1,5 +1,6 @@
 ---
-title: Criando Ceph Object Gateway
+title: Como criar o Ceph Object Gateway
+tags: [ceph]
 ---
 
 ## Conceitos
diff --git a/content/pt-br/docs/guides/ceph/como-trocar-discos.md b/content/pt-br/docs/guides/ceph/como-trocar-discos.md
new file mode 100644
index 0000000000000000000000000000000000000000..0d7ae158e6e3fe4cd217212ea79cce0e51172492
--- /dev/null
+++ b/content/pt-br/docs/guides/ceph/como-trocar-discos.md
@@ -0,0 +1,100 @@
+---
+title: Como trocar discos no Ceph
+tags: [ceph]
+---
+
+1. Identifique o disco falhado:
+
+   ```console
+   $ ceph health
+   $ ceph osd tree | grep -i down
+   ```
+
+2. Pare o daemon do disco:
+
+   ```console
+   $ systemctl stop ceph-osd@OSD_ID
+   ```
+
+3. Tire o OSD do Ceph:
+
+   ```console
+   $ ceph osd out OSD_ID
+   $ ceph osd crush remove osd.OSD_ID
+   ```
+
+4. Remova o disco do Ceph:
+
+   ```console
+   $ ceph osd rm osd.OSD_ID
+   ```
+
+5. Desmonte o disco:
+
+   ```console
+   $ umount /var/lib/ceph/osd/$CLUSTER_NAME-$OSD_ID
+   ```
+
+6. Remova do LVM, primeiro achando o disco e a partição do SSD correspondente a ele.
+
+   Por exemplo, para remover do LVM OSD.0, primeiro ache o OSD.0 no LVM:
+
+   ```console
+   barril4:~# ceph-volume lvm list
+
+
+   ====== osd.0 =======
+
+     [db]          /dev/ceph-8e43d77e-ebc3-4c7e-9da8-475a37da59ae/osd-db-ea40e801-188f-4d53-afdb-6082eb5e8185
+
+         block device              /dev/ceph-a75e7b96-ddb4-4838-8e98-777c1492dab5/osd-block-5b0842c7-ee56-4d05-8bb2-00efdb475b04
+         block uuid                FDPpBc-cvOG-JZYq-5D6u-2RlJ-56gz-1LUncO
+         cephx lockbox secret
+         cluster fsid              c30ecc8d-440e-4608-b3fe-5020337ae11d
+         cluster name              ceph
+         crush device class        None
+         db device                 /dev/ceph-8e43d77e-ebc3-4c7e-9da8-475a37da59ae/osd-db-ea40e801-188f-4d53-afdb-6082eb5e8185
+     db uuid                   rN0LG9-86Dl-KgzQ-DUOd-hF9u-A3Kl-nLdwV2
+     encrypted                 0
+         osd fsid                  5b0842c7-ee56-4d05-8bb2-00efdb475b04
+         osd id                    0
+         osdspec affinity
+         type                      db
+         vdo                       0
+         devices                   /dev/nvme0n1
+
+     [block]       /dev/ceph-a75e7b96-ddb4-4838-8e98-777c1492dab5/osd-block-5b0842c7-ee56-4d05-8bb2-00efdb475b04
+
+         block device              /dev/ceph-a75e7b96-ddb4-4838-8e98-777c1492dab5/osd-block-5b0842c7-ee56-4d05-8bb2-00efdb475b04
+         block uuid                FDPpBc-cvOG-JZYq-5D6u-2RlJ-56gz-1LUncO
+         cephx lockbox secret
+         cluster fsid              c30ecc8d-440e-4608-b3fe-5020337ae11d
+         cluster name              ceph
+         crush device class        None
+         db device                 /dev/ceph-8e43d77e-ebc3-4c7e-9da8-475a37da59ae/osd-db-ea40e801-188f-4d53-afdb-6082eb5e8185
+         db uuid                   rN0LG9-86Dl-KgzQ-DUOd-hF9u-A3Kl-nLdwV2
+         encrypted                 0
+         osd fsid                  5b0842c7-ee56-4d05-8bb2-00efdb475b04
+         osd id                    0
+         osdspec affinity
+         type                      block
+         vdo                       0
+         devices                   /dev/sdc
+   ```
+
+   Agora remova o `block` e o `db`.
+
+   1. No caso do DB precisa remover tando do `ceph-volume`, quanto excluir
+      a partição do SSD. O comando `ceph-volume lvm zap` remove do Ceph e
+      o `lvremove` remove a partição do SSD:
+
+      ```console
+      $ ceph-volume lvm zap /dev/ceph-8e43d77e-ebc3-4c7e-9da8-475a37da59ae/osd-db-ea40e801-188f-4d53-afdb-6082eb5e8185
+      $ lvremove /dev/ceph-8e43d77e-ebc3-4c7e-9da8-475a37da59ae/osd-db-ea40e801-188f-4d53-afdb-6082eb5e8185
+      ```
+
+   2. Para remover o bloco execute:
+
+      ```console
+      $ ceph-volume lvm zap /dev/ceph-a75e7b96-ddb4-4838-8e98-777c1492dab5/osd-block-5b0842c7-ee56-4d05-8bb2-00efdb475b04
+      ```
diff --git a/content/pt-br/docs/guides/usando-s3-ceph.md b/content/pt-br/docs/guides/ceph/como-usar-o-s3-com-o-ceph.md
similarity index 98%
rename from content/pt-br/docs/guides/usando-s3-ceph.md
rename to content/pt-br/docs/guides/ceph/como-usar-o-s3-com-o-ceph.md
index 6588d5fc5153d3f61934a7c0ab2bceadebad6750..e0a5e8846d7bd770f506f2730bb20e04ba00b532 100644
--- a/content/pt-br/docs/guides/usando-s3-ceph.md
+++ b/content/pt-br/docs/guides/ceph/como-usar-o-s3-com-o-ceph.md
@@ -1,6 +1,6 @@
 ---
-title: Usando a API AWS S3 do Ceph
-description: Como configurar e usar a API do S3 junto com o Ceph
+title: Como configurar e usar a API do S3 junto com o Ceph
+tags: [ceph, s3]
 ---
 
 A instância do Ceph do C3SL possui as seguintes valores:
diff --git a/content/pt-br/docs/guides/acessando-sub-redes-internas.md b/content/pt-br/docs/guides/como-acessar-sub-redes-internas.md
similarity index 97%
rename from content/pt-br/docs/guides/acessando-sub-redes-internas.md
rename to content/pt-br/docs/guides/como-acessar-sub-redes-internas.md
index ab97e8712b1e5c2661112e6a780c131c3cc088b7..e39a064f1ccecdee2aea3eb2b8db209b6cb5d1bd 100644
--- a/content/pt-br/docs/guides/acessando-sub-redes-internas.md
+++ b/content/pt-br/docs/guides/como-acessar-sub-redes-internas.md
@@ -1,5 +1,5 @@
 ---
-title: Acessando sub-redes internas
+title: Como acessar sub-redes internas
 ---
 
 É possível acessar uma sub-rede interna (como a sub-rede dos
diff --git a/content/pt-br/docs/guides/configurando-pam.md b/content/pt-br/docs/guides/como-configur-o-pam.md
similarity index 99%
rename from content/pt-br/docs/guides/configurando-pam.md
rename to content/pt-br/docs/guides/como-configur-o-pam.md
index 1517efa154706f1d4addad252f9c9d17e7ea4471..570a0284e1a1f09fbb25e659ceb1d31165adac0f 100644
--- a/content/pt-br/docs/guides/configurando-pam.md
+++ b/content/pt-br/docs/guides/como-configur-o-pam.md
@@ -1,5 +1,6 @@
 ---
-title: Configurando PAM nos terminais do DINF
+title: Como configurar o PAM nos terminais do DINF
+tags: [pam]
 ---
 
 Foi adotado o [guia de referência da RJ Systems](http://www.rjsystems.nl/en/2100-d6-kerberos-openldap-client.php) com algumas
diff --git a/content/pt-br/docs/guides/fail2ban-wordpress.md b/content/pt-br/docs/guides/como-configurar-fail2ban-wordpress.md
similarity index 98%
rename from content/pt-br/docs/guides/fail2ban-wordpress.md
rename to content/pt-br/docs/guides/como-configurar-fail2ban-wordpress.md
index e246c33d433d1330466b9799c0ee3c0a7751a2ae..ae77057855123e23668c9385281547b21b7df4c9 100644
--- a/content/pt-br/docs/guides/fail2ban-wordpress.md
+++ b/content/pt-br/docs/guides/como-configurar-fail2ban-wordpress.md
@@ -1,5 +1,5 @@
 ---
-title: Configuração do Fail2Ban para WordPress
+title: Como configurar Fail2Ban para WordPress
 ---
 
 Configuração do fail2ban nas máquinas c3slprod e webinfpro com o propósito de
diff --git a/content/pt-br/docs/guides/configuracao-acesso-ipmi.md b/content/pt-br/docs/guides/como-configurar-o-acesso-ipmi.md
similarity index 98%
rename from content/pt-br/docs/guides/configuracao-acesso-ipmi.md
rename to content/pt-br/docs/guides/como-configurar-o-acesso-ipmi.md
index 5c32a6e4051827a542777bd21c06dcbb275a6f69..875f81b7ff065eba9f0ddbefba712bcf4b5eea87 100644
--- a/content/pt-br/docs/guides/configuracao-acesso-ipmi.md
+++ b/content/pt-br/docs/guides/como-configurar-o-acesso-ipmi.md
@@ -1,5 +1,6 @@
 ---
-title: Configuração do acesso IPMI
+title: Como configurar acesso ao IPMI
+tags: [ipmi]
 ---
 
 O padrão adotado para configuração dos parâmetros do IPMI são:
@@ -88,7 +89,7 @@ barril1:~# ipmitool lan set 2 defgw ipaddr 0.0.0.0
 ```
 
 O IP dentro da rede IPMI deve constar no arquivo `/root/ipmi/status_ipmi.md`
-da [](/pages/machines/base/duvel).
+da [](/docs/machines/base/duvel).
 
 {{< alert title="TODO" >}}
 Confirmar se o IP deve ser assinalado sequencialmente, pegando o primeiro que
diff --git a/content/pt-br/docs/guides/criando-aliases-dns.md b/content/pt-br/docs/guides/como-criar-aliases-dns.md
similarity index 98%
rename from content/pt-br/docs/guides/criando-aliases-dns.md
rename to content/pt-br/docs/guides/como-criar-aliases-dns.md
index 8f780e4a23aa6c6830db5bd755d6b4a0876e44c3..5609d6a1ccd2945471cdfe8309464dc2f166b528 100644
--- a/content/pt-br/docs/guides/criando-aliases-dns.md
+++ b/content/pt-br/docs/guides/como-criar-aliases-dns.md
@@ -1,5 +1,6 @@
 ---
-title: Criando aliases no DNS
+title: Como criar aliases no DNS
+tags: [dns]
 ---
 
 Às vezes é necessário criar um nome externo diferente de um nome interno utilizado
diff --git a/content/pt-br/docs/guides/quiosque-quadro-avisos.md b/content/pt-br/docs/guides/como-criar-quiosque-quadro-avisos.md
similarity index 97%
rename from content/pt-br/docs/guides/quiosque-quadro-avisos.md
rename to content/pt-br/docs/guides/como-criar-quiosque-quadro-avisos.md
index 1bd070a2e7797b686aa7be29dc8b0c393045322f..3a1aabc34c01eceab9650357567b7d2ea4bc39f8 100644
--- a/content/pt-br/docs/guides/quiosque-quadro-avisos.md
+++ b/content/pt-br/docs/guides/como-criar-quiosque-quadro-avisos.md
@@ -1,5 +1,5 @@
 ---
-title: Criando um quiosque do quadro de avisos
+title: Como criar um quiosque do quadro de avisos
 ---
 
 Um quiosque do quadro de avisos é uma máquina simples que abre uma
diff --git a/content/pt-br/docs/guides/comutacao-banco-dados.md b/content/pt-br/docs/guides/como-fazer-a-comutacao-entre-banco-de-dados.md
similarity index 97%
rename from content/pt-br/docs/guides/comutacao-banco-dados.md
rename to content/pt-br/docs/guides/como-fazer-a-comutacao-entre-banco-de-dados.md
index 9b287c0f5df4d4813a52d111fcecbc428b163e8c..ffda942340fb7a122efabd84d5c36d384fcefbd3 100644
--- a/content/pt-br/docs/guides/comutacao-banco-dados.md
+++ b/content/pt-br/docs/guides/como-fazer-a-comutacao-entre-banco-de-dados.md
@@ -1,5 +1,5 @@
 ---
-title: Comutação entre bancos de dados
+title: Como fazer a comutação entre bancos de dados
 ---
 
 Atualmente, o C3SL conta com duas máquinas de banco de dados:
@@ -31,7 +31,10 @@ Atualmente, o C3SL conta com duas máquinas de banco de dados:
   - Indexes e tabelas do Moodle armazenada nos discos
 :::
 
-Com base na configuração das duas servidoras de banco de dados, é notável a superioridade da servidora C3SLDB2. Portanto, recomenda-se ela ser a servidora principal, enquanto a servidora c3sldb1 fique como secundária em caso de falha na c3sldb2.
+Com base na configuração das duas servidoras de banco de dados, é notável a
+superioridade da servidora C3SLDB2. Portanto, recomenda-se ela ser a servidora
+principal, enquanto a servidora c3sldb1 fique como secundária em caso de falha
+na c3sldb2.
 
 ## Processo de comutação entre servidoras
 
diff --git a/content/pt-br/docs/guides/debootstrap-torneira.md b/content/pt-br/docs/guides/como-fazer-debootstrap-da-torneira.md
similarity index 97%
rename from content/pt-br/docs/guides/debootstrap-torneira.md
rename to content/pt-br/docs/guides/como-fazer-debootstrap-da-torneira.md
index 716e76bcb12041e66d75f8ef041df2178bda756a..955b66a16f750f3ecbf37c5fa29181bc445e24fa 100644
--- a/content/pt-br/docs/guides/debootstrap-torneira.md
+++ b/content/pt-br/docs/guides/como-fazer-debootstrap-da-torneira.md
@@ -1,5 +1,6 @@
 ---
-title: Debootstrap das Torneiras
+title: Como fazer debootstrap das Torneiras
+tags: [debootstrap]
 ---
 
 ## Configurando RAID
diff --git a/content/pt-br/docs/guides/debootstrap-mvs.md b/content/pt-br/docs/guides/como-fazer-debootstrap-mvs.md
similarity index 98%
rename from content/pt-br/docs/guides/debootstrap-mvs.md
rename to content/pt-br/docs/guides/como-fazer-debootstrap-mvs.md
index 2d2934250c78f81e364825a8dd701870052dd62a..a38a86e15c43a7374356afa2d87f6c78617aedae 100644
--- a/content/pt-br/docs/guides/debootstrap-mvs.md
+++ b/content/pt-br/docs/guides/como-fazer-debootstrap-mvs.md
@@ -1,5 +1,6 @@
 ---
-title: Debootstrap das Máquinas Virtuais
+title: Como fazer debootstrap das Máquinas Virtuais
+tags: [debootstrap]
 ---
 
 ## Install debootstrap and qemu
diff --git a/content/pt-br/docs/guides/how-to-proxy.md b/content/pt-br/docs/guides/como-fazer-proxy.md
similarity index 98%
rename from content/pt-br/docs/guides/how-to-proxy.md
rename to content/pt-br/docs/guides/como-fazer-proxy.md
index 62f5d4264e761ffb1f503d5fdfc77e9ca4c03790..d589b91fa96749e3f3dd0854324cf40bab9ed6a3 100644
--- a/content/pt-br/docs/guides/how-to-proxy.md
+++ b/content/pt-br/docs/guides/como-fazer-proxy.md
@@ -1,6 +1,5 @@
 ---
-title: Proxies
-description: Como fazer proxy
+title: Como fazer proxy
 ---
 
 ## DynamicForward (proxy de tudo)
diff --git a/content/pt-br/docs/guides/gerando-imagens-aps.md b/content/pt-br/docs/guides/como-gerar-uma-imagens-aps.md
similarity index 98%
rename from content/pt-br/docs/guides/gerando-imagens-aps.md
rename to content/pt-br/docs/guides/como-gerar-uma-imagens-aps.md
index 4f224d71a1a50122842fb7a1513fd187f9ab8f4f..36110df0785de67bb81fecfcbdb6cb96a6496c87 100644
--- a/content/pt-br/docs/guides/gerando-imagens-aps.md
+++ b/content/pt-br/docs/guides/como-gerar-uma-imagens-aps.md
@@ -1,5 +1,5 @@
 ---
-title: Gerando imagem dos pontos de acesso sem fio
+title: Como gerar uma imagem dos pontos de acesso sem fio
 ---
 
 Os pontos de acesso sem fio gerenciados pelo C3SL são roteadores com
diff --git a/content/pt-br/docs/guides/identificando-chave-ssh.md b/content/pt-br/docs/guides/como-identificar-usuarios-pela-chave-ssh.md
similarity index 98%
rename from content/pt-br/docs/guides/identificando-chave-ssh.md
rename to content/pt-br/docs/guides/como-identificar-usuarios-pela-chave-ssh.md
index 13a72944bd71bd5353b56c742dd0b71d58a69d10..fb3ef0b6d0931fb88b5d5cc0a1d21195365b7cfb 100644
--- a/content/pt-br/docs/guides/identificando-chave-ssh.md
+++ b/content/pt-br/docs/guides/como-identificar-usuarios-pela-chave-ssh.md
@@ -1,5 +1,5 @@
 ---
-title: Identificando usuário pela chave SSH
+title: Como identificar usuários pela chave SSH
 ---
 
 Primeiro, encontre a impressão digital da chave no `journalctl`:
diff --git a/content/pt-br/docs/guides/instalando-c3sldb.md b/content/pt-br/docs/guides/como-instalar-c3sldb.md
similarity index 99%
rename from content/pt-br/docs/guides/instalando-c3sldb.md
rename to content/pt-br/docs/guides/como-instalar-c3sldb.md
index 6980a5329297ed94a509f6718c517e246f50f125..8d016fce7bfd2dc5a96154b2662dad9bc3623354 100644
--- a/content/pt-br/docs/guides/instalando-c3sldb.md
+++ b/content/pt-br/docs/guides/como-instalar-c3sldb.md
@@ -1,5 +1,5 @@
 ---
-title: Instalando a C3SLDB
+title: Como instalar a C3SLDB
 ---
 
 ## Instalação do Postgres
diff --git a/content/pt-br/docs/guides/instalando-freeipa.md b/content/pt-br/docs/guides/como-instalar-freeipa.md
similarity index 99%
rename from content/pt-br/docs/guides/instalando-freeipa.md
rename to content/pt-br/docs/guides/como-instalar-freeipa.md
index 900027df50330b66c213b4f719c36bc77ff8df25..fb70eaa00fb00018dd58a86d75ede446cf99eefc 100644
--- a/content/pt-br/docs/guides/instalando-freeipa.md
+++ b/content/pt-br/docs/guides/como-instalar-freeipa.md
@@ -1,5 +1,5 @@
 ---
-title: Instalando o FreeIPA
+title: Como instalar o FreeIPA
 ---
 
 O IPA é uma solução integrada de gerenciamento de informações de segurança
diff --git a/content/pt-br/docs/guides/instalando-ldap.md b/content/pt-br/docs/guides/como-instalar-ldap.md
similarity index 99%
rename from content/pt-br/docs/guides/instalando-ldap.md
rename to content/pt-br/docs/guides/como-instalar-ldap.md
index 53eddbdb38277f57e24c845d1ed50092f2b043b9..fbdb6de6a656679a4d276802ffb5b0c54b607c10 100644
--- a/content/pt-br/docs/guides/instalando-ldap.md
+++ b/content/pt-br/docs/guides/como-instalar-ldap.md
@@ -1,5 +1,5 @@
 ---
-title: Instalando o LDAP
+title: Como instalar o LDAP
 ---
 
 ## Introdução
diff --git a/content/pt-br/docs/guides/recuperando-falha-raiz.md b/content/pt-br/docs/guides/como-recuperar-falha-raiz.md
similarity index 94%
rename from content/pt-br/docs/guides/recuperando-falha-raiz.md
rename to content/pt-br/docs/guides/como-recuperar-falha-raiz.md
index 1536eae9010eb03b09ecb8b8ba76f20c1fb918a0..823a3c9e97c307c5aace1695beef7cde5cad8107 100644
--- a/content/pt-br/docs/guides/recuperando-falha-raiz.md
+++ b/content/pt-br/docs/guides/como-recuperar-falha-raiz.md
@@ -1,5 +1,5 @@
 ---
-title: Recuperando discos de raiz falhos
+title: Como recuperar discos de raiz falhos
 ---
 
 Geralmente as máquinas implementam pelo menos RAID1 (espelhamento) nos seus
@@ -7,11 +7,11 @@ discos de raiz para permitir que mesmo que falhe um disco, o sistema continue
 funcionando normalmente. Porém, pode acontecer, devido a fatores como os discos
 serem colocados em tempos semelhantes e serem do mesmo lote, que os dois discos
 da raiz falhem simultaneamente. Para isso, precisamos recorrer então ao
-[backup da duvel](/pages/services/duvel-backup) (já testou seu backup hoje?):
+[backup da duvel](/docs/services/duvel-backup) (já testou seu backup hoje?):
 
 1. Pegue um pendrive bootável com SSH (de preferência que já tenha a sua chave SSH)
 , rede e utilidades já instaladas. É possível encontrar uma imagem Arch Linux
-para pendrive na [](/pages/machines/virtuals/abbey) em `/root/ramfs/isos/`. É bom manter
+para pendrive na [](/docs/machines/virtuals/abbey) em `/root/ramfs/isos/`. É bom manter
 no data center uns dois pendrives assim.
 1. Vá ao data center e coloque o pendrive na máquina que falhou as duas raizes.
 1. Coloque nessa máquina dois SSDs de **mesmo tamanho** onde estavam as duas raízes.
diff --git a/content/pt-br/docs/guides/reiniciando-urquell-cuidadosamente.md b/content/pt-br/docs/guides/como-reiniciar-a-urquell-cuidadosamente.md
similarity index 86%
rename from content/pt-br/docs/guides/reiniciando-urquell-cuidadosamente.md
rename to content/pt-br/docs/guides/como-reiniciar-a-urquell-cuidadosamente.md
index 045ecf445e1daa23dde4656185cd5562dfb443f4..00291dc51ae716fdf054c4372ed771d4dc71131e 100644
--- a/content/pt-br/docs/guides/reiniciando-urquell-cuidadosamente.md
+++ b/content/pt-br/docs/guides/como-reiniciar-a-urquell-cuidadosamente.md
@@ -1,13 +1,13 @@
 ---
-title: Reiniciando a urquell cuidadosamente
+title: Como reiniciar a urquell cuidadosamente
 ---
 
-Devido a erros de paridade no RAID, a [](/pages/machines/base/urquell) ao ser
+Devido a erros de paridade no RAID, a [](/docs/machines/base/urquell) ao ser
 reiniciada de forma abrupta pode voltar em modo de emergência.
 Uma mitigação para que se evite que os erros acumulem e que a máquina
 tenha mais chance de voltar sem precisar iniciar em modo de emergência
 é reiniciar a urquell serviço a serviço como segue.
-Os passos podem ser executados via [](/pages/concepts/ipmi) ou fisicamente:
+Os passos podem ser executados via [](/docs/concepts/ipmi) ou fisicamente:
 
 1. Primeiro entre no modo de usuário único:
 
diff --git a/content/pt-br/docs/guides/usando-ceph-fs.md b/content/pt-br/docs/guides/como-usar-o-ceph-fs.md
similarity index 100%
rename from content/pt-br/docs/guides/usando-ceph-fs.md
rename to content/pt-br/docs/guides/como-usar-o-ceph-fs.md
diff --git a/content/pt-br/docs/guides/como-usar-o-gopass.md b/content/pt-br/docs/guides/como-usar-o-gopass.md
new file mode 100644
index 0000000000000000000000000000000000000000..02f77d784c7689eca5b17ab0efa61ddb34b040cc
--- /dev/null
+++ b/content/pt-br/docs/guides/como-usar-o-gopass.md
@@ -0,0 +1,17 @@
+---
+title: Como usar o gopass
+---
+
+O Root possui um repositório do pass no gitlab:
+- <https://gitlab.c3sl.ufpr.br/c3root/pass>
+
+Para ter acesso a ele, você precisa que a sua chave GPG esteja na lista de
+"recipientes" do gopass. 
+
+## Como adicionar chaves
+
+Importe a chave pública.
+
+```sh
+gopass recipients add
+```
diff --git a/content/pt-br/docs/guides/kerberos.md b/content/pt-br/docs/guides/como-usar-o-kerberos-distribuido.md
similarity index 98%
rename from content/pt-br/docs/guides/kerberos.md
rename to content/pt-br/docs/guides/como-usar-o-kerberos-distribuido.md
index f4313903faa721584a5fd4bae75a25a7a630e0f0..24dc07be81fa0846f9089265ea72bd169b3df3a0 100644
--- a/content/pt-br/docs/guides/kerberos.md
+++ b/content/pt-br/docs/guides/como-usar-o-kerberos-distribuido.md
@@ -1,11 +1,12 @@
 ---
-title: Kerberos Distribuído
+title: Como usar o Kerberos Distribuído
 ---
 
 ## Introdução
 
-O objetivo deste guia é simular um ambiente de autenticação através Kerberos com LDAP de backend.
-Este guia é baseado na documentação oficial do MIT, wiki do ArchLinux e um guia do Ubuntu. As referências estão no final do documento.
+O objetivo deste guia é simular um ambiente de autenticação através Kerberos
+com LDAP de backend. Este guia é baseado na documentação oficial do MIT, wiki
+do ArchLinux e um guia do Ubuntu. As referências estão no final do documento.
 
 ## Arquitetura
 
diff --git a/content/pt-br/docs/guides/usando-taskwarrior.md b/content/pt-br/docs/guides/como-usar-o-taskwarrior.md
similarity index 98%
rename from content/pt-br/docs/guides/usando-taskwarrior.md
rename to content/pt-br/docs/guides/como-usar-o-taskwarrior.md
index 4ca75b6aed81efbd6477d6306aa60117bee31e9e..6fc6f937517064a884fa8c5809e2274f6f23ecc1 100644
--- a/content/pt-br/docs/guides/usando-taskwarrior.md
+++ b/content/pt-br/docs/guides/como-usar-o-taskwarrior.md
@@ -1,6 +1,5 @@
 ---
-title: Como usar o Taskwarrior
-description: Como usar o Taskwarrior para gerenciar as suas tarefas
+title: Como usar o Taskwarrior para gerenciar as suas tarefas
 ---
 
 O Taskwarrior é um gerenciador de tarefas, estilo TODO list.
diff --git a/content/pt-br/docs/guides/gerenciando-falha-disco-ceph.md b/content/pt-br/docs/guides/gerenciando-falha-disco-ceph.md
deleted file mode 100644
index ce2b46f500956986e516defcb54a6e787d56b745..0000000000000000000000000000000000000000
--- a/content/pt-br/docs/guides/gerenciando-falha-disco-ceph.md
+++ /dev/null
@@ -1,161 +0,0 @@
----
-title: Gerenciando disco falho no Ceph
----
-
-Se você está aqui, espero que seja porque você tenha recebido alguns alertas do
-Zabbix emitidos pelo Ceph Monitor dizendo que alguns OSDs não estão funcionando.
-O Ceph tenta ressucitar o disco quando isso acontece, mas se ele permanece
-falhando, o que se deve fazer é testar e remover o disco de operação.
-
-1. Primeiro precisamos identificar qual OSD está falhando:
-
-   ```console
-   barril4:~/scripts# ceph osd status
-   ID  HOST      USED  AVAIL  WR OPS  WR DATA  RD OPS  RD DATA  STATE
-    0  barril4  4732G  2836G     11     84.3k      1        0   exists,up
-    1  barril4     0      0       2     79.6k      0        0   autoout,exists
-    2  barril4  4826G  2741G      5     30.0k      3      228k  exists,up
-    3  barril4  4951G  2616G      6     65.3k      0        0   exists,up
-   ```
-
-   Observe que o OSD 1 não está `up`.
-
-1. Agora identificamos qual o disco falho:
-
-   ```console
-   barril4:~/scripts# ceph-volume lvm list | grep -A 19 '= osd.1 ='
-   ====== osd.1 =======
-
-     [db]          /dev/ceph-8e43d77e-ebc3-4c7e-9da8-475a37da59ae/osd-db-2c87d89f-23f3-4c76-b61c-f868c35486bc
-
-         block device              /dev/ceph-e42d4f35-b3d6-4aed-b288-c549d8b70941/osd-block-58e98ed2-a658-44ee-9992-d15f054a7694
-         block uuid                JojsTQ-cY4R-fG2y-AAjv-IfDI-3YJT-34XkYA
-         cephx lockbox secret
-         cluster fsid              c30ecc8d-440e-4608-b3fe-5020337ae11d
-         cluster name              ceph
-         crush device class        None
-         db device                 /dev/ceph-8e43d77e-ebc3-4c7e-9da8-475a37da59ae/osd-db-2c87d89f-23f3-4c76-b61c-f868c35486bc
-         db uuid                   s0kw8e-iW38-boMx-9xTV-sXfT-C8Ju-lXkaiH
-         encrypted                 0
-         osd fsid                  58e98ed2-a658-44ee-9992-d15f054a7694
-         osd id                    1
-         osdspec affinity
-         type                      db
-         vdo                       0
-         devices                   /dev/sdh
-
-   ```
-
-   Note então que o disco falho é o `/dev/sdh` neste caso.
-
-1. Podemos zerar o disco e verificar se ocorre alguma falha:
-
-   ```console
-   barril4:~# dd if=/dev/zero of=/dev/sdh bs=4M oflag=sync status=progress &; \
-     dmesg -TW
-   ```
-
-   Isso vai demorar bastante, então rode em uma sessão do tmux. Se o `dd` terminar
-   a sua execução e o `dmesg` não acusar nenhum erro, o disco ainda é *usável*,
-   porém definitivamente suspeito. Zerar o disco arrumou os setores corrompidos
-   do disco e o gerenciador do disco conseguiu identificar e realocar os setores
-   defeituosos. De toda forma o disco merece uma inspeção com `smartctl`:
-
-   ```console
-   barril4:~# smartctl -a /dev/sdh
-   smartctl 7.3 2022-02-28 r5338 [x86_64-linux-6.1.0-0.deb11.5-amd64] (local build)
-   Copyright (C) 2002-22, Bruce Allen, Christian Franke, www.smartmontools.org
-
-   === START OF INFORMATION SECTION ===
-   Vendor:               SEAGATE
-   Product:              ST8000NM0075
-   Revision:             E002
-   Compliance:           SPC-4
-   User Capacity:        8,001,563,222,016 bytes [8.00 TB]
-   Logical block size:   512 bytes
-   Physical block size:  4096 bytes
-   LU is fully provisioned
-   Rotation Rate:        7200 rpm
-   Form Factor:          3.5 inches
-   Logical Unit id:      0x5000c50093ff6bc7
-   Serial number:        ZA17WQSP0000R742QPZP
-   Device type:          disk
-   Transport protocol:   SAS (SPL-4)
-   Local Time is:        Sun Mar  3 18:04:07 2024 -03
-   SMART support is:     Available - device has SMART capability.
-   SMART support is:     Enabled
-   Temperature Warning:  Enabled
-
-   === START OF READ SMART DATA SECTION ===
-   SMART Health Status: DATA CHANNEL IMPENDING FAILURE DATA ERROR RATE TOO HIGH [asc=5d, ascq=32]
-
-   Grown defects during certification <not available>
-   Total blocks reassigned during format <not available>
-   Total new blocks reassigned = 49200
-   Power on minutes since format <not available>
-   Current Drive Temperature:     53 C
-   Drive Trip Temperature:        60 C
-
-   Accumulated power on time, hours:minutes 52214:46
-   Manufactured in week 19 of year 2017
-   Specified cycle count over device lifetime:  10000
-   Accumulated start-stop cycles:  80
-   Specified load-unload count over device lifetime:  300000
-   Accumulated load-unload cycles:  4216
-
-   Elements in grown defect list: 49236
-
-   Vendor (Seagate Cache) information
-     Blocks sent to initiator = 83987848
-     Blocks received from initiator = 354284152
-     Blocks read from cache and sent to initiator = 2331500192
-     Number of read and write commands whose size <= segment size = 577322949
-     Number of read and write commands whose size > segment size = 1980651
-
-   Vendor (Seagate/Hitachi) factory information
-     number of hours powered up = 52214.77
-     number of minutes until next internal SMART test = 25
-
-   Error counter log:
-              Errors Corrected by           Total   Correction     Gigabytes    Total
-                  ECC          rereads/    errors   algorithm      processed    uncorrected
-              fast | delayed   rewrites  corrected  invocations   [10^9 bytes]  errors
-   read:   2826058232    56169         0  2826114401      56169     450842.769           0
-   write:         0        0         0         0          0      91089.432           0
-
-   Non-medium error count:     6026
-
-
-   [GLTSD (Global Logging Target Save Disable) set. Enable Save with '-S on']
-   No Self-tests have been logged
-   ```
-
-   O que é importante neste diagnóstico é:
-
-   `Transport protocol:`
-   : Neste caso `SAS (SPL-4)` que indica se é SATA ou SAS.
-
-   `Accumulated power on time, hours:minutes`
-   : Tempo de operação do disco. Ao converter para anos, vemos que esse disco
-   está se aproximando da marca dos 6 anos.
-
-   `Manufactured in week {} of year {}`
-   : Quando o disco foi fabricado, o que indica de qual lote este disco é,
-   não sendo, por exemplo, da leva dos últimos 4 anos na escrita deste guia (2024).
-
-   `Elements in grown defect list:`
-   : Quantidade de setores ruins no disco. Se essa quantidade aumentar
-   gradualmente, esse disco precisa ser trocado.
-
-   `SMART Health Status:`
-   : O estado de erro que o SMART identificou. Neste caso, temos um problema
-   de comunicação, onde somas de verificação estão dando errado, indicando
-   uma falha iminente.
-
-1. Para retirar o disco, é altamente recomendado utilizar o `ledctl` para piscar
-   um LED vermelho no disco correspondente na controladora:
-
-   ```console
-   $ ledctl locate /dev/sdh
-   $ ledctl locate_off /dev/sdh
-   ```
diff --git a/content/pt-br/docs/guides/imagemTerminais/_index.md b/content/pt-br/docs/guides/imagemTerminais/_index.md
new file mode 100644
index 0000000000000000000000000000000000000000..fa73d3fa450dcaa948c540e9e774efc74ba1ec40
--- /dev/null
+++ b/content/pt-br/docs/guides/imagemTerminais/_index.md
@@ -0,0 +1,4 @@
+---
+title: Imagem dos terminais
+description: Guias relacionados à imagem dos labs
+---
diff --git a/content/pt-br/docs/guides/como-atualizar-a-imagem-dos-terminais.md b/content/pt-br/docs/guides/imagemTerminais/como-atualizar-imagens.md
similarity index 89%
rename from content/pt-br/docs/guides/como-atualizar-a-imagem-dos-terminais.md
rename to content/pt-br/docs/guides/imagemTerminais/como-atualizar-imagens.md
index 7e047724bb0b5d06991f0ffdc299d104d6ab9d60..3c6382774c948dc05450a7ce6ddadcc26efc554d 100644
--- a/content/pt-br/docs/guides/como-atualizar-a-imagem-dos-terminais.md
+++ b/content/pt-br/docs/guides/imagemTerminais/como-atualizar-imagens.md
@@ -1,15 +1,15 @@
 ---
-title: Como atualizar a imagem dos terminais
+title: Como atualizar uma imagem dos terminais
 ---
 
-Em primeiro lugar, entre na estrella com o usuário `c3slops`:
+Entre na estrella com o usuário `c3slops`:
 
 ```sh
 ssh c3slops@estrella
 ```
 
 As imagens de sistema estão localizadas no diretório `/exports/image`. Para
-copiar a imagem atual, use o comando cp com a opção -a, que preserva as
+copiar a imagem atual, use o comando cp com a opção -a para preservar as
 propriedades do diretório e seus arquivos.
 
 O nome da imagem deve seguir o formato nome-ano-mes-data-hora-minuto, por
@@ -48,7 +48,7 @@ menuentry "Terminal" {
 }
 ```
 
-## Como testar?
+## Como testar
 
 Reboote a máquina `cloneimgteste` para ver se as modificações foram aplicadas.
 Caso tudo esteja certo, reboote todas as outras máquinas com o script
diff --git a/content/pt-br/docs/guides/terminais.md b/content/pt-br/docs/guides/imagemTerminais/como-criar-imagens.md
similarity index 98%
rename from content/pt-br/docs/guides/terminais.md
rename to content/pt-br/docs/guides/imagemTerminais/como-criar-imagens.md
index 141369dc665117e16dce57c24b68e471b15be6d4..a07de47e3a201c08b0468a4f02ccf1c4c6d98b7e 100644
--- a/content/pt-br/docs/guides/terminais.md
+++ b/content/pt-br/docs/guides/imagemTerminais/como-criar-imagens.md
@@ -1,5 +1,5 @@
 ---
-title: Como criar uma imagem de terminais
+title: Como criar uma imagem dos terminais
 ---
 
 ## Configurar PAM, Kerberos e LDAP
diff --git a/content/pt-br/docs/guides/kubernetes/_index.md b/content/pt-br/docs/guides/kubernetes/_index.md
new file mode 100644
index 0000000000000000000000000000000000000000..b3b164bc7ffb2b27ad701f35a42034a9416731d4
--- /dev/null
+++ b/content/pt-br/docs/guides/kubernetes/_index.md
@@ -0,0 +1,4 @@
+---
+title: Kubernetes
+description: Guias relacionados ao Kubernetes
+---
diff --git a/content/pt-br/docs/guides/como-fazer-o-deploy-de-um-novo-cluster-k8s.md b/content/pt-br/docs/guides/kubernetes/como-fazer-o-deploy-de-um-cluster-kubernetes-com-talos-linux.md
similarity index 96%
rename from content/pt-br/docs/guides/como-fazer-o-deploy-de-um-novo-cluster-k8s.md
rename to content/pt-br/docs/guides/kubernetes/como-fazer-o-deploy-de-um-cluster-kubernetes-com-talos-linux.md
index 31cbed043f773fbd34c4c5ba402086c9558900dc..42c490ec00b0bc814bddf19778aaf439b83a937d 100644
--- a/content/pt-br/docs/guides/como-fazer-o-deploy-de-um-novo-cluster-k8s.md
+++ b/content/pt-br/docs/guides/kubernetes/como-fazer-o-deploy-de-um-cluster-kubernetes-com-talos-linux.md
@@ -1,5 +1,6 @@
 ---
-title: Como fazer o deploy de um novo cluster k8s
+title: Como fazer o deploy de um cluster Kubernetes com TalosLinux
+tags: [kubernetes, talos-linux]
 ---
 
 ## Faça o deploy das VMs com OpenTofu
@@ -131,4 +132,3 @@ flux bootstrap gitlab \
 cilium uninstall
 flux reconcile source git flux-system
 ```
-
diff --git a/content/pt-br/docs/guides/como-gerenciar-usuarios-no-kubernetes.md b/content/pt-br/docs/guides/kubernetes/como-gerenciar-usuarios-no-kubernetes.md
similarity index 99%
rename from content/pt-br/docs/guides/como-gerenciar-usuarios-no-kubernetes.md
rename to content/pt-br/docs/guides/kubernetes/como-gerenciar-usuarios-no-kubernetes.md
index 220331f2b14c333d0b1f0503b5b3fc338a7fbd29..b2e65cad0b19dfe6606777e6e10d736586f30f6d 100644
--- a/content/pt-br/docs/guides/como-gerenciar-usuarios-no-kubernetes.md
+++ b/content/pt-br/docs/guides/kubernetes/como-gerenciar-usuarios-no-kubernetes.md
@@ -1,5 +1,6 @@
 ---
 title: Como gerenciar usuários no Kubernetes
+tags: [kubernetes]
 ---
 
 Nesse tutorial vai ser criado um certificado para o "usuário" devademir com as
@@ -172,3 +173,4 @@ Use `k get clusterrole` para ver todas as *ClusterRoles*.
 - [Certificates e CSR](https://kubernetes.io/docs/reference/access-authn-authz/certificate-signing-requests/#kubernetes-signers)
 - [Kubernetes TLS Certificates](https://kubernetes.io/docs/tasks/tls/managing-tls-in-a-cluster/#create-a-certificate-signing-request)
 
+
diff --git a/content/pt-br/docs/services/k8s-harbor.md b/content/pt-br/docs/services/k8s-harbor.md
new file mode 100644
index 0000000000000000000000000000000000000000..81991654f2bb00f5000c84a4338115686d43ef1b
--- /dev/null
+++ b/content/pt-br/docs/services/k8s-harbor.md
@@ -0,0 +1,9 @@
+---
+title: k8s/Harbor
+description: Harbor do C3SL
+---
+
+- O [Harbor do C3SL](https://harbor.c3sl.ufpr.br) está em cima do
+  [Kubernetes](/docs/concepts/kubernetes).
+- As credenciais do admin do Harbor estão disponíveis no
+  [gopass](/docs/concepts/gopass).
diff --git a/content/pt-br/docs/services/k8s-rootdocs.md b/content/pt-br/docs/services/k8s-rootdocs.md
index a0877804ea208e581bac139c9ce94c4724c50248..fc68ef429b90f26a4fe93066a065e7c8fa587bb7 100644
--- a/content/pt-br/docs/services/k8s-rootdocs.md
+++ b/content/pt-br/docs/services/k8s-rootdocs.md
@@ -41,5 +41,5 @@ deploy:
 
 Essa pipeline faz duas coisas:
 1. O build e push do container - usando [kaniko](/concepts/kaniko) - no
-   [Harbor](/concepts/harbor).
+   [Harbor](/docs/concepts/harbor).
 2. Reinicia o deploy no Kubernetes para atualizar a imagem em uso.