diff --git a/content/pt-br/docs/concepts/initd.md b/content/pt-br/docs/concepts/initd.md
index 9da2ba6067c7ef9080a794803dd4697fe13c7a37..68eae7ec2f8f14ead2606baf0e12d9e3c668e504 100644
--- a/content/pt-br/docs/concepts/initd.md
+++ b/content/pt-br/docs/concepts/initd.md
@@ -9,9 +9,9 @@ caso, provavelmente o sistema está usando um sistema de inicialização como o
 System V. O System V é um sistema Unix que inicializa o sistema utilizando um
 programa que executa scripts localizados no diretório `/etc/init.d`.
 
-:::{warning}
+{{< alert color="warning" title="Aviso" >}}
 Esse sistema de inicialização não é mais utilizado pela maioria das
 distribuições Linux. Isso significa que a disponibilidade de suporte,
 documentação e configurações de programas novos para este sistema de
 inicialização é praticamente inexistente.
-:::
+{{< /alert >}}
diff --git a/content/pt-br/docs/concepts/zfs.md b/content/pt-br/docs/concepts/zfs.md
index 579f4c531bbc3d6bb73a3f724ab08ff19d6c3c6e..ba3f6b00f8052a5df48d6b70953f54901581ff35 100644
--- a/content/pt-br/docs/concepts/zfs.md
+++ b/content/pt-br/docs/concepts/zfs.md
@@ -62,7 +62,7 @@ config:
 errors: No known data errors
 ```
 
-{{< alert title="Note" >}}
+{{< alert title="Nota" >}}
 Estar mostrando `(non-allocating)` é aparentemente [um bug que deve se
 resolver na próxima vez que a máquina reiniciar](https://discourse.practicalzfs.com/t/meaning-of-non-allocating-in-zpool-status/1029).
 {{< /alert >}}
diff --git a/content/pt-br/docs/guides/configuracao-acesso-ipmi.md b/content/pt-br/docs/guides/configuracao-acesso-ipmi.md
index d127e0f27393018b8eb5cdddf556588eb001def5..5c32a6e4051827a542777bd21c06dcbb275a6f69 100644
--- a/content/pt-br/docs/guides/configuracao-acesso-ipmi.md
+++ b/content/pt-br/docs/guides/configuracao-acesso-ipmi.md
@@ -90,10 +90,10 @@ barril1:~# ipmitool lan set 2 defgw ipaddr 0.0.0.0
 O IP dentro da rede IPMI deve constar no arquivo `/root/ipmi/status_ipmi.md`
 da [](/pages/machines/base/duvel).
 
-:::{todo}
- Confirmar se o IP deve ser assinalado sequencialmente, pegando o primeiro
- que estiver disponível.
-:::
+{{< alert title="TODO" >}}
+Confirmar se o IP deve ser assinalado sequencialmente, pegando o primeiro que
+estiver disponível.
+{{< /alert >}}
 
 ## Configuração de usuários
 
diff --git a/content/pt-br/docs/guides/configurando-pam.md b/content/pt-br/docs/guides/configurando-pam.md
index 68e7c9ad287a1265dc7a45197636f66d34c53c3c..1517efa154706f1d4addad252f9c9d17e7ea4471 100644
--- a/content/pt-br/docs/guides/configurando-pam.md
+++ b/content/pt-br/docs/guides/configurando-pam.md
@@ -4,7 +4,7 @@ title: Configurando PAM nos terminais do DINF
 
 Foi adotado o [guia de referência da RJ Systems](http://www.rjsystems.nl/en/2100-d6-kerberos-openldap-client.php) com algumas
 modificações na parte da PAM para ficar o mais semelhante possível com a
-configuração da [](/pages/virtuals/mumm).
+configuração da [](/docs/virtuals/mumm).
 
 ## Passo 1: Instalar pacotes do Kerberos, LDAP, PAM e afins
 
diff --git a/content/pt-br/docs/guides/gerando-imagens-aps.md b/content/pt-br/docs/guides/gerando-imagens-aps.md
index 1ec82b8053fe2980e3eaecb8666b86e394a2fcd6..4f224d71a1a50122842fb7a1513fd187f9ab8f4f 100644
--- a/content/pt-br/docs/guides/gerando-imagens-aps.md
+++ b/content/pt-br/docs/guides/gerando-imagens-aps.md
@@ -16,10 +16,10 @@ sendo que o download do imagebuilder de cada roteador pode ser feita no
 Para esse tutorial será utilizado o AP modelo tplink Archer C7 v5 com o
 OpenWrt 21.02.2.
 
-:::{note}
+{{< alert title="Nota" >}}
 É recomendável compilar com usuário não privilegiado para evitar alguns
 *warnings*.
-:::
+{{< /alert >}}
 
 Em uma servidora Debian ou virtual siga os seguintes passos:
 
@@ -61,9 +61,9 @@ Em uma servidora Debian ou virtual siga os seguintes passos:
 
 4. Dentro do diretório do imgbuilder, devemos agora configurar a imagem.
 
-   :::{todo}
+   {{< alert title="TODO" >}}
    Essa parte está terrivelmente incompleta.
-   :::
+   {{< /alert >}}
 
    O processo de configurar a imagem consiste em criar o diretório `files` e
    depois copiá-lo para dentro do diretório do `imgbuilder`:
diff --git a/content/pt-br/docs/guides/usando-ceph-fs.md b/content/pt-br/docs/guides/usando-ceph-fs.md
index 7b6eaebe4b6caaea07ae2dc779acacedda7e3f3c..31cfdfd9c4c0f8199c5e44972910a57d9ca9a2da 100644
--- a/content/pt-br/docs/guides/usando-ceph-fs.md
+++ b/content/pt-br/docs/guides/usando-ceph-fs.md
@@ -2,12 +2,10 @@
 title: Como usar o CephFS
 ---
 
-{{% pageinfo %}}
-
+{{< alert color="warning" title="Aviso" >}}
 Este documento visa explicar a administração de diretórios, permissões e quotas
 do CephFS em produção. Ele NÃO explica como criar um CephFS ou implantar MDS.
-
-{{% /pageinfo %}}
+{{< /alert >}}
 
 ## Criando uma autorização
 
diff --git a/content/pt-br/docs/machines/base/duvel.md b/content/pt-br/docs/machines/base/duvel.md
index 390ea32d5c5713aa4c46c9c1fe868cf7e494dc7d..6c3f82b8e6c29e42b3f10c46696d587a1681b923 100644
--- a/content/pt-br/docs/machines/base/duvel.md
+++ b/content/pt-br/docs/machines/base/duvel.md
@@ -2,26 +2,17 @@
 title: duvel
 ---
 
-:::{list-table}
-* - **CPU**
-  - 2x Intel(R) Xeon(R) CPU E5-2680 v2 @ 2.80GHz
-* - **RAM**
-  - 62 GiB
-* - **Threads lógicas**
-  - 40 = 2 sockets x 2 SMT x 10 cores
-* - **Sistema operacional**
-  - Debian GNU/Linux 12 6.1.38-1 (2023-07-14)
-* - **Gerenciador de serviços**
-  - [](/pages/concepts/systemd)
-* - **Sistema de arquivos** `/boot`
-  - [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 921 MiB
-* - **Sistema de arquivos** `/`
-  - [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 229 GiB
-* - **Sistema de arquivos** `/tank`
-  - [ZFS RAIDZ2](/pages/concepts/zfs) 21 TiB
-* - **Sistema de arquivos** `/backup`
-  - [ZFS RAIDZ2](/pages/concepts/zfs) 67 TiB
-:::
+| | |
+|-------------|--------------------|
+| **CPU** | 2x Intel(R) Xeon(R) CPU E5-2680 v2 @ 2.80GHz |
+| **RAM** | 62 GiB |
+| **Threads lógicas** | 40 = 2 sockets x 2 SMT x 10 cores |
+| **Sistema operacional** | Debian GNU/Linux 12 6.1.38-1 (2023-07-14) |
+| **Gerenciador de serviços** | [](/docs/concepts/systemd) |
+| **Sistema de arquivos** `/boot` | [](/docs/concepts/ext4) [MD RAID1](/docs/concepts/md) 921 MiB |
+| **Sistema de arquivos** `/` | [](/docs/concepts/ext4) [MD RAID1](/docs/concepts/md) 229 GiB |
+| **Sistema de arquivos** `/tank` | [ZFS RAIDZ2](/docs/concepts/zfs) 21 TiB |
+| **Sistema de arquivos** `/backup` | [ZFS RAIDZ2](/docs/concepts/zfs) 67 TiB |
 
 A duvel é a máquina física que faz backup e permite o acesso ao parque computacional.
 É possível acessar a duvel externamente através do endereço `duvel.c3sl.ufpr.br`. Em
@@ -29,24 +20,24 @@ algumas redes internas, porém, as regras de firewall barram o acesso, sendo
 necessário a utilização de outra máquina como ponte para acessá-la
 (por exemplo, através da [](urquell) ou da [](../virtuals/abbey)).
 
-:::{todo}
+{{< alert title="TODO" >}}
 Verificar em qual firewall essa regra de acesso à duvel está, e qual
 exatamente são os parâmetros.
-:::
+{{< /alert >}}
 
 A duvel está conectado em 10G com o resto do parque computacional através
-do switch [](/pages/switches/dc/malbec).
+do switch [](/docs/switches/dc/malbec).
 
 ## Serviços
 
-- [Let's Encrypt para pegar certificados SSL que rodam no cron às 9h da manhã.](/pages/services/duvel-ssl)
-- [Backups diários, semanais e mensais de várias máquinas virtuais e físicas. Eles executam em horários diferentes variando de 2h às 4h da manhã e são especificados manualmente no crontab.](/pages/services/duvel-backup)
+- [Let's Encrypt para pegar certificados SSL que rodam no cron às 9h da manhã.](/docs/services/duvel-ssl)
+- [Backups diários, semanais e mensais de várias máquinas virtuais e físicas. Eles executam em horários diferentes variando de 2h às 4h da manhã e são especificados manualmente no crontab.](/docs/services/duvel-backup)
   - Existe uma verificação diária para verificar se todas as máquinas virtuais constam no crontab, o script `/usr/local/bin/check_backup.sh`.
     Ao encontrar uma máquina virtual sem backup, o script envia um e-mail para os roots.
-- [Servidor IPMI que dá acesso a todos as máquinas, sendo o uso do cliente do IPMI nesta máquina em específico.](/pages/services/duvel-ipmi)
-- [Acesso a todos os switches via TFTP e SSH.](/pages/services/switches)
+- [Servidor IPMI que dá acesso a todos as máquinas, sendo o uso do cliente do IPMI nesta máquina em específico.](/docs/services/duvel-ipmi)
+- [Acesso a todos os switches via TFTP e SSH.](/docs/services/switches)
 - Monitoramento dos sensores das máquinas integrando IPMI e Zabbix através do arquivo de configuração `/etc/ipmi_monitor.ini`, que envia informações dos sensores a cada minuto para o Zabbix.
-- [Gerenciar o Salt, principalmente através do usuário salt.](/pages/services/salt)
+- [Gerenciar o Salt, principalmente através do usuário salt.](/docs/services/salt)
 
 ## Mapeamento de arquivos
 
@@ -59,7 +50,7 @@ do switch [](/pages/switches/dc/malbec).
   coisas muito específicas usando awk (mover).
 - `/root/ipmi/acesso.md`: senhas conforme o tipo do acesso desejado (mover
   para um lugar centralizado fora da máquina).
-- `/root/ipmi/howto.md`: Guia de como configurar o acesso IPMI (obsoleto, veja a [](/pages/guides/configuracao-acesso-ipmi)).
+- `/root/ipmi/howto.md`: Guia de como configurar o acesso IPMI (obsoleto, veja a [](/docs/guides/configuracao-acesso-ipmi)).
 - `/root/ipmi/status_ipmi.md`: IP de cada máquina dentro da rede IPMI (mover
   para um lugar centralizado fora da máquina).
 - `/root/ipmi/reset_hpc.md`: script que reinicializa as máquinas do C3HPC
diff --git a/content/pt-br/docs/machines/base/roble.md b/content/pt-br/docs/machines/base/roble.md
index 8fded17c60d95e0d6d8cfcb6c17b33a92fa526a5..377e7a4448c5752d776e65812bad994c0331107a 100644
--- a/content/pt-br/docs/machines/base/roble.md
+++ b/content/pt-br/docs/machines/base/roble.md
@@ -2,20 +2,14 @@
 title: roble
 ---
 
-:::{list-table}
-* - **CPU**
-  - 2x Intel(R) Xeon(R) CPU E5-2690 v2 @ 3.00GHz
-* - **RAM**
-  - 62 GiB
-* - **Threads lógicas**
-  - 40 = 2 sockets x 2 SMT x 10 cores
-* - **Sistema operacional**
-  - Debian GNU/Linux Unstable 6.5.11 (2023-11-19)
-* - **Gerenciador de serviços**
-  - [](/pages/concepts/initd)
-* - **Sistema de arquivos** `/`
-  - [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 111.8 GiB
-:::
+| | |
+|-|-|
+| **CPU** | 2x Intel(R) Xeon(R) CPU E5-2690 v2 @ 3.00GHz |
+| **RAM** | 62 GiB |
+| **Threads lógicas** | 40 = 2 sockets x 2 SMT x 10 cores |
+| **Sistema operacional** | Debian GNU/Linux Unstable 6.5.11 (2023-11-19) |
+| **Gerenciador de serviços** | [](/pages/concepts/initd) |
+| **Sistema de arquivos** `/` | [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 111.8 GiB |
 
 A roble é a máquina física que é roteador de toda a rede.
 
diff --git a/content/pt-br/docs/machines/base/urquell.md b/content/pt-br/docs/machines/base/urquell.md
index 66dfea8830abf0fee6037f7d6d40e466aa0c35b6..db23a0ee38cda6c6ef50ea6759dd24389981686f 100644
--- a/content/pt-br/docs/machines/base/urquell.md
+++ b/content/pt-br/docs/machines/base/urquell.md
@@ -2,24 +2,17 @@
 title: urquell
 ---
 
-* - **CPU**
-  - 2x Intel(R) Xeon(R) CPU E5-2683 v4 @ 2.10GHz
-* - **RAM**
-  - 503 GiB
-* - **Threads lógicas**
-  - 64 = 2 sockets x 2 SMT x 16 cores
-* - **Sistema operacional**
-  - Debian GNU/Linux 11 6.1.20-2~bpo11+1 (2023-04-23)
-* - **Gerenciador de serviços**
-  - [](/pages/concepts/systemd)
-* - **Sistema de arquivos** `/`
-  - [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 64G
-* - **Sistema de arquivos** `/var`
-  - [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 156G
-* - **Sistema de arquivos** `/nobackup`
-  - [ZFS Mirror 3x3](/pages/concepts/zfs) 13.6T
-* - **Sistema de arquivos** `/home`
-  - [ZFS Mirror 3x3](/pages/concepts/zfs) 13.6T
+| | |
+|-|-|
+| **CPU** | 2x Intel(R) Xeon(R) CPU E5-2683 v4 @ 2.10GHz |
+| **RAM** | 503 GiB |
+| **Threads lógicas** | 64 = 2 sockets x 2 SMT x 16 cores |
+| **Sistema operacional** | Debian GNU/Linux 11 6.1.20-2~bpo11+1 (2023-04-23) |
+| **Gerenciador de serviços** | [](/pages/concepts/systemd) |
+| **Sistema de arquivos** `/` | [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 64G |
+| **Sistema de arquivos** `/var` | [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 156G |
+| **Sistema de arquivos** `/nobackup` | [ZFS Mirror 3x3](/pages/concepts/zfs) 13.6T |
+| **Sistema de arquivos** `/home` | [ZFS Mirror 3x3](/pages/concepts/zfs) 13.6T |
 
 A Urquell é a máquina física que gerencia o DINF que acabou recebendo a tarefa
 de também gerenciar o C3SL. Ela é uma parte crítica da infraestrutura, pois
diff --git a/content/pt-br/docs/machines/virtuals/abbey.md b/content/pt-br/docs/machines/virtuals/abbey.md
index fb85777ed940380943a0a82e46b1997b451adf44..b5a84f91809dd882f1befff4b9710b6fa7269839 100644
--- a/content/pt-br/docs/machines/virtuals/abbey.md
+++ b/content/pt-br/docs/machines/virtuals/abbey.md
@@ -13,22 +13,15 @@ title: abbey
                                      -_-
 ```
 
-:::{list-table}
-* - **CPU**
-  - 2x Intel(R) Xeon(R) CPU E5-2690 v2 @ 3.00GHz
-* - **RAM**
-  - 62 GiB
-* - **Threads lógicas**
-  - 40 = 2 sockets x 2 SMT x 10 cores
-* - **Sistema operacional**
-  - Debian GNU/Linux 12 6.5.13-1-pve (2024-02-05T13:50Z)
-* - **Gerenciador de serviços**
-  - [](/pages/concepts/systemd)
-* - **Sistema de arquivos** `/`
-  - [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 2.7T
-* - **Sistema de arquivos** `/storage`
-  - [](/pages/concepts/ext4) [MD RAID6](/pages/concepts/md) 29.1T
-:::
+| | |
+|-|-|
+| **CPU** | 2x Intel(R) Xeon(R) CPU E5-2690 v2 @ 3.00GHz |
+| **RAM** | 62 GiB |
+| **Threads lógicas** | 40 = 2 sockets x 2 SMT x 10 cores
+| **Sistema operacional** | Debian GNU/Linux 12 6.5.13-1-pve (2024-02-05T13:50Z) |
+| **Gerenciador de serviços** | [](/pages/concepts/systemd) |
+| **Sistema de arquivos** `/` | [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 2.7T | 
+| **Sistema de arquivos** `/storage` | [](/pages/concepts/ext4) [MD RAID6](/pages/concepts/md) 29.1T |
 
 A Abbey é a máquina física responsável pela gerência das máquinas virtuais.
 
diff --git a/content/pt-br/docs/services/estrella-dhcpv4.md b/content/pt-br/docs/services/estrella-dhcpv4.md
index 4fbe4636d679e2020235627ce8f68ed1236b4c96..da3a1a30f7a09d0d92cc34ed2fdf07472dd8cad3 100644
--- a/content/pt-br/docs/services/estrella-dhcpv4.md
+++ b/content/pt-br/docs/services/estrella-dhcpv4.md
@@ -2,16 +2,16 @@
 title: estrella/Servidor DHCPv4
 ---
 
-O servidor de DHCP da [](/pages/machines/base/estrella), o Kea tem como função de atribuir
+O servidor de DHCP da [](/docs/machines/base/estrella), o Kea tem como função de atribuir
 o IPv4 as máquinas da rede. Além disso, ele também indica o endereço dos servidores
 de DNS, lista de buscas de DNS, o endereço do servidor de boot remoto e o
 servidor NTP. O servidor faz isso seletivamente, oferecendo informações
 diferentes dependendo do endereço MAC utilizado pelo cliente para colocá-lo
 em uma determinada sub-rede (associada a uma VLAN).
 
-:::{note}
-Não usamos um servidor DHCPv6, sendo os [IPv6 atribuídos via autoconfiguração](/pages/concepts/autoconfig-ipv6).
-:::
+{{< alert title="Nota" >}}
+Não usamos um servidor DHCPv6, sendo os [IPv6 atribuídos via autoconfiguração](/docs/concepts/autoconfig-ipv6).
+{{< /alert >}}
 
 A configuração do servidor DHCP é feita através do NetBox. Nas [interfaces de
 rede da estrella no NetBox](https://netbox.c3sl.ufpr.br/dcim/devices/49/interfaces/)
diff --git a/content/pt-br/docs/services/forsyn-monitoramento-zabbix.md b/content/pt-br/docs/services/forsyn-monitoramento-zabbix.md
index a23546112423319ab354c7cf5d56400781c5fe35..a1bf3859d6f89825ddbefb0bd53ed111bb43e7bf 100644
--- a/content/pt-br/docs/services/forsyn-monitoramento-zabbix.md
+++ b/content/pt-br/docs/services/forsyn-monitoramento-zabbix.md
@@ -2,7 +2,7 @@
 title: forsyn/Monitoramento Zabbix
 ---
 
-A [](/pages/machines/base/forsyn) é a máquina que executa o servidor de
+A [](/docs/machines/base/forsyn) é a máquina que executa o servidor de
 monitoramento Zabbix, responsável por coletar dados importantes das máquinas do
 C3SL (tanto físicas quanto virtuais), bem como enviar alertas relacionados a elas.
 
@@ -37,7 +37,7 @@ pode ser a causa (é possível ver isso na interface web do servidor).
 
 ## Rede
 Essa máquina tem conexão direta de 10Gb com o switch
-[](/pages/switches/dc/malbec).
+[](/docs/switches/dc/malbec).
 
 Nomes que apontam para essa máquina:
 - `forsyn.c3sl.ufpr.br`, `forsyn.dfs`, `forsyn.arcond`: Nome da forsyn
@@ -79,18 +79,18 @@ O monitoramento do ar de precisão do datacenter é feito por meio de um micrinh
 proprietário dele que 'não temos acesso'.
 
 No momento da escrita desse texto, o monitoramento foi recém migrado da
-[](/pages/machines/base/urquell) para a [](/pages/machines/base/forsyn), mas
+[](/docs/machines/base/urquell) para a [](/docs/machines/base/forsyn), mas
 aparentemente há alguma regra de *firewall* **interna** do micrinho que permite
 apenas a urquell fazer as requisições SNMP.
 
 Não foi feita nenhuma gambiarra para contornar isso, logo o monitoramento do ar
 de precisão pela forsyn não ocorre atualmente.
 
-:::{note}
+{{< alert title="Nota" >}}
 Uma possível solução envolveria mexer no *firewall* da urquell e fazer a forsyn
 fazer as requisições através dela. Não foi feito por ser bizarro isso ser
 necessário.
-:::
+{{< /alert >}}
 
 ## Planos para o futuro
 * Sincronizar o Zabbix com uma base de dados que seja 'fonte da verdade': O que
diff --git a/content/pt-br/docs/services/k8s-rootdocs.md b/content/pt-br/docs/services/k8s-rootdocs.md
index 84250d24952f9fe080568cf14a6ce42b0243bf94..a0877804ea208e581bac139c9ce94c4724c50248 100644
--- a/content/pt-br/docs/services/k8s-rootdocs.md
+++ b/content/pt-br/docs/services/k8s-rootdocs.md
@@ -17,11 +17,20 @@ stages:
 build:
   stage: build
   image:
-    name: gcr.io/kaniko-project/executor:v1.23.2-debug
+    name: gcr.io/kaniko-project/executor:debug
     entrypoint: [""]
   script:
-    - echo "{\"auths\":{\"harbor.c3sl.ufpr.br\":{\"username\":\"$HARBOR_USER\",\"password\":\"$HARBOR_PASSWORD\"}}}" > /kaniko/.docker/config.json
-    - /kaniko/executor --context . --destination harbor.c3sl.ufpr.br/root/docs --cache=true --dockerfile "${CI_PROJECT_DIR}/Dockerfile"
+    - echo "{\"auths\":{\"${HARBOR_HOST}\":{\"auth\":\"$(echo -n ${HARBOR_USERNAME}:${HARBOR_PASSWORD} | base64 -w 0)\"}}}" > /kaniko/.docker/config.json
+    - >-
+      /kaniko/executor
+      --context "${CI_PROJECT_DIR}"
+      --dockerfile "${CI_PROJECT_DIR}/Dockerfile"
+      --destination "${HARBOR_HOST}/${HARBOR_PROJECT}/${CI_PROJECT_NAME}:${CI_COMMIT_TAG}"
+      --single-snapshot
+      --snapshot-mode=redo
+      --use-new-run
+      --cache=true
+      --compressed-caching=true
 
 deploy:
   stage: deploy
diff --git a/content/pt-br/docs/services/urquell-autenticacao-dinf.md b/content/pt-br/docs/services/urquell-autenticacao-dinf.md
index fc719b560a218374cce79f9f7f6d6ab15fb973ab..45dc53720a0ded254eaeb63917d29a155f07c8e2 100644
--- a/content/pt-br/docs/services/urquell-autenticacao-dinf.md
+++ b/content/pt-br/docs/services/urquell-autenticacao-dinf.md
@@ -33,10 +33,10 @@ Onde:
 - `<login>`: login do usuário
 - `<shell>`: caminho para o novo shell, ex: /bin/zsh
 
-:::{note}
+{{< alert title="Nota" >}}
 É importante que todos terminais e virtuais tenham o shell que o usuário
 utiliza, caso contrário ele não conseguirá fazer login.
-:::
+{{< /alert >}}
 
 Exemplo:
 
diff --git a/content/pt-br/docs/services/urquell-dns.md b/content/pt-br/docs/services/urquell-dns.md
index fe9f97e9ac2fc56b58402f0c00aa6eccb327d306..ec163df04e800070abfa81db1b4d80cb87ec1344 100644
--- a/content/pt-br/docs/services/urquell-dns.md
+++ b/content/pt-br/docs/services/urquell-dns.md
@@ -2,42 +2,42 @@
 title: urquell/Servidor DNS
 ---
 
-:::{note}
+{{< alert title="Nota" >}}
 Há um trabalho concorrente para replicar a configuração do servidor DNS
 da urquell. A documentação atual é o [guia de configuração
-do servidor de DNS da teorica](/pages/guides/teorica-dns).
-:::
+do servidor de DNS da teorica](/docs/guides/teorica-dns).
+{{< /alert >}}
 
-A [](/pages/machines/base/urquell) é servidora primária e autoritativa de DNS sobre os domínios:
+A [](/docs/machines/base/urquell) é servidora primária e autoritativa de DNS sobre os domínios:
 
 - `c3sl.ufpr.br`: domínio do C3SL, autoridade dada pela AGTIC.
 - `inf.ufpr.br`: domínio do Departamento de Informática, autoridade dada pela AGTIC.
 - `c3local`: domínio interno usado para máquinas dos laboratórios,
   acoplado ao [serviço de DHCPv4](estrella-dhcpv4).
 - `home`: domínio interno usada para máquinas que montam o diretório home
-  através do NFS como a [](/pages/virtuals/macalan).
+  através do NFS como a [](/docs/virtuals/macalan).
 - `dfs`: domínio interno usado para sistemas de arquivos distribuídos.
-  Historicamente usado para o Gluster, agora usado pelo [](/pages/concepts/ceph).
+  Historicamente usado para o Gluster, agora usado pelo [](/docs/concepts/ceph).
   Todas as máquinas que precisam usar o CephFS precisam estar cadastradas
   neste nome.
 - `nobreak`: domínio interno usado para acesso aos nobreaks.
 - `arcond`: domínio interno usado para acesso aos ares-condicionados.
 
-A [](/pages/machines/base/sagres) possui um [serviço de DNS secundário](sagres-dns)
+A [](/docs/machines/base/sagres) possui um [serviço de DNS secundário](sagres-dns)
 que apenas replica os registros de DNS usando
-[transferências de zona](/pages/concepts/dns.md#transferencias-de-zona).
+[transferências de zona](/docs/concepts/dns.md#transferencias-de-zona).
 Vale lembrar que a autoridade sobre os domínios externos `c3sl.ufpr.br` e `inf.ufpr.br`
 é configurada por IP pela AGTIC em seus servidores DNS por
-[registros de cola](/pages/concepts/dns.md#registros-de-cola).
+[registros de cola](/docs/concepts/dns.md#registros-de-cola).
 
 Outro detalhe de implementação importante é que o DNS do C3SL não implementa
 DNSSEC. Para que isso aconteça, porém, é necessário que o domínio acima,
 o `ufpr.br` gerenciado pela AGTIC também o implemente, assinando e dando
 legitimamente para as nossas chaves.
 
-Além de ser servidora de DNS autoritativa, a [](/pages/machines/base/urquell)
+Além de ser servidora de DNS autoritativa, a [](/docs/machines/base/urquell)
 também é a servidora de DNS recursiva da rede interna e os computadores aprendem
-isso através do [servidor DHCPv4](/pages/services/estrella-dhcpv4). Isso significa
+isso através do [servidor DHCPv4](/docs/services/estrella-dhcpv4). Isso significa
 que praticamente todas as consultas de nomes são feitas a ela (para resolver
 o IP de qualquer nome como `google.com`). Mas essa funcionalidade está limitada
 a rede interna para evitar alguns tipos de ataques de DNS.
diff --git a/content/pt-br/docs/switches/config/huawei.md b/content/pt-br/docs/switches/config/huawei.md
index 754bbe8fb601afe6763d9c195d1ec8e193aaf75c..6dfc5842c56e4ac98186d91d41f222cd4ba6121f 100644
--- a/content/pt-br/docs/switches/config/huawei.md
+++ b/content/pt-br/docs/switches/config/huawei.md
@@ -3,10 +3,10 @@ title: Huawei
 description: Como configurar o switch da marca Huawei
 ---
 
-:::{note}
+{{< alert tile="Nota" >}}
 Para desfazer um comando você pode rodar o mesmo comando novamente com `undo`
 na frente.
-:::
+{{< /alert >}}
 
 ## Coleta de informações
 
@@ -345,11 +345,11 @@ interface XGigabitEthernet0/0/4
  port trunk allow-pass vlan <tag vlan1> <tag vlan2> <tag vlan3> <tag vlan4> <tag vlan5>
 ```
 
-:::{note}
+{{< alert title="Nota" >}}
 O comando `port link-type trunk` só é necessário em portas que ainda não
 foram configuradas, ou que estava em access. Se a porta já estiver em "trunk",
 não é necessário repetir o comando para adicionar as VLANs.
-:::
+{{< /alert >}}
 
 #### Adicionar VLAN em várias portas trunk
 
@@ -390,7 +390,7 @@ interface XGigabitEthernet0/0/4
 
 ## Salvar configuração
 
-Na [](/pages/machines/base/duvel), ative o TFTP:
+Na [](/docs/machines/base/duvel), ative o TFTP:
 
 ```
 $ /etc/init.d/tftpd-hpa start
@@ -406,13 +406,13 @@ $ save nome.zip
 $ tftp 10.90.90.55 put nome.zip arquivo
 ```
 
-Na [](/pages/machines/base/duvel), desative o TFTP:
+Na [](/docs/machines/base/duvel), desative o TFTP:
 
 ```
 $ /etc/init.d/tftpd-hpa stop
 ```
 
 Depois, descompacte o arquivo com `unzip` e copie o arquivo de configuração
-para a [](/pages/machines/base/urquell).
+para a [](/docs/machines/base/urquell).
 
 O local destino é mapas/switches/conf/huawei/
diff --git a/content/pt-br/docs/switches/dc/malbec.md b/content/pt-br/docs/switches/dc/malbec.md
index 5a32871f5cd77f1bc227d89e4836c9e5a64913b1..298403075ae946d9729180a45c0dc7445678a1ec 100644
--- a/content/pt-br/docs/switches/dc/malbec.md
+++ b/content/pt-br/docs/switches/dc/malbec.md
@@ -2,24 +2,17 @@
 title: malbec
 ---
 
-:::{list-table}
-* - **Marca**
-  - pica8
-* - **Modelo**
-  - P-3922
-* - **MTBF**
-  - 129 916h (~14.8 anos)
-* - **Localização**
-  - Rack 2 do Data Center
-* - **Patrimônio**
-  - 481855
-* - **Portas Normais**
-  - 48x10Gigabit (SFP+) [1-48]
-* - **Portas de Uplink**
-  - 4x40Gigabit (QSFP+) [49-52]
-:::
+| | |
+|-|-|
+| **Marca** | pica8 |
+| **Modelo** | P-3922 |
+| **MTBF** | 129 916h (~14.8 anos) |
+| **Localização** | Rack 2 do Data Center |
+| **Patrimônio** | 481855 |
+| **Portas Normais** | 48x10Gigabit (SFP+) [1-48] |
+| **Portas de Uplink** | 4x40Gigabit (QSFP+) [49-52] |
 
-O switch central. O acesso à Internet é mediado pela [](/pages/machines/base/roble).
+O switch central. O acesso à Internet é mediado pela [](/docs/machines/base/roble).
 
 ```
                   +--------+
diff --git a/content/pt-br/docs/virtuals/bbb.md b/content/pt-br/docs/virtuals/bbb.md
index 6cbbe799dceb9ce142af893dea1b10efdeb2f542..94db78d8c84efa3c697e726fe5bf2348451e1866 100644
--- a/content/pt-br/docs/virtuals/bbb.md
+++ b/content/pt-br/docs/virtuals/bbb.md
@@ -2,21 +2,19 @@
 title: bbb
 ---
 
-:::{list-table}
-* - **Sistema Operacional**
-  - Ubuntu 18.04.6 LTS
-* - **Kernel**
-  - Compilado pelo c3sl - (GNU/Linux 5.10.77-minmvs x86_64)
-:::
+| | |
+|-|-|
+| **Sistema Operacional** | Ubuntu 18.04.6 LTS |
+| **Kernel** | Compilado pelo c3sl - (GNU/Linux 5.10.77-minmvs x86_64) |
 
 A máquina virtual bbb roda os serviços da [aplicação BigBlueButton](https://bigbluebutton.org/),
 uma plataforma de sala de aula virtual disponível em [bbb.c3sl.ufpr.br](https://bbb.c3sl.ufpr.br).
 O frontend utilizado é o Greenlight, uma aplicação separada que roda na mesma
-máquina virtual usando [](/pages/concepts/docker).
+máquina virtual usando [](/docs/concepts/docker).
 
 ## Serviços
 
-A máquina virtual bbb roda os seguintes serviços usando [](/pages/concepts/systemd):
+A máquina virtual bbb roda os seguintes serviços usando [](/docs/concepts/systemd):
 
 - nginx
 - freeswitch
@@ -33,23 +31,23 @@ A máquina virtual bbb roda os seguintes serviços usando [](/pages/concepts/sys
 - bbb-html5-frontend@2
 - etherpad
 - bbb-web
-- greenlight (contêiner [](/pages/concepts/docker))
-- Postgres (contêiner [](/pages/concepts/docker))
+- greenlight (contêiner [](/docs/concepts/docker))
+- Postgres (contêiner [](/docs/concepts/docker))
 
-É possível verificar o estado de cada serviço pelo [](/pages/concepts/systemd).
+É possível verificar o estado de cada serviço pelo [](/docs/concepts/systemd).
 Porém, no caso da aplicação BBB, o aconselhado é utilizar o seu próprio
 comando `bbb-conf --status`.
 
-:::{note}
-O Greenlight é o frontend para o BigBlueButton, e está
-localizado no diretório `/root/greenlight-v3`.
-É recomendável fazer dump do banco antes de mexer no Greenlight.
+{{< alert title="Nota" >}}
+O Greenlight é o frontend para o BigBlueButton, e está localizado no diretório
+`/root/greenlight-v3`. É recomendável fazer dump do banco antes de mexer no
+Greenlight.
 
 ```console
 $ docker exec -it  postgres pg_dump -U postgres \
     -d greenlight-v3-production > bbb_greenlight_$(date -I).sql
 ```
-:::
+{{< /alert >}}
 
 ## Configuração do firewall
 
@@ -59,7 +57,7 @@ A virtual está em uma única VLAN, MVC3. E as configurações de firewall atuai
 
 2. Outras portas específicas são:
 
-   No [firewall da roble](/pages/services/roble-firewall):
+   No [firewall da roble](/docs/services/roble-firewall):
 
    ```
    # bbb ports
@@ -67,7 +65,7 @@ A virtual está em uma única VLAN, MVC3. E as configurações de firewall atuai
        --dports 16384:32768 -j ACCEPT
    ```
 
-   No [firewall da estrella](/pages/services/estrella-firewall):
+   No [firewall da estrella](/docs/services/estrella-firewall):
 
    ```
    chain FORWARD { ip daddr bbb.c3sl.ufpr.br udp dport 16384-65535 counter packets 0 bytes 0 accept }
@@ -145,7 +143,7 @@ Se quiser monitorar em tempo real faça:
 $ bbb-conf --watch
 ```
 
-O Greenlight roda dentro de [](/pages/concepts/docker), então os logs
+O Greenlight roda dentro de [](/docs/concepts/docker), então os logs
 ficam dentro do contêiner. Para ver os logs do contêiner faça:
 
 ```
@@ -177,7 +175,7 @@ o BBB e atualizar do Greenlight. O algoritmo é:
 A primeira coisa que se deve fazer antes de atualizar é parar a aplicação e
 fechar a virtual no firewall. Para isso, basta tirar a virtual das
 listas `http_int_allowed` e `http_int_allowed` dos
-arquivos `rede/{firewall,firewall-ip}` no [](/pages/services/roble-firewall).
+arquivos `rede/{firewall,firewall-ip}` no [](/docs/services/roble-firewall).
 
 ### Atualizar o sistema operacional
 
@@ -297,10 +295,10 @@ Nice=-10
 Execute o comando `systemctl daemon-reload` e reinicie o
 BigBlueButton com `bbb-conf --restart`.
 
-:::{note}
+{{< alert title="Nota" >}}
 Note que [a solução sugerida pela documentação do projeto](https://docs.bigbluebutton.org/support/troubleshooting/#bbb-webrtc-sfu-fails-to-start-with-a-setscheduler-error)
 não funciona. Ela consiste em criar um arquivo
 em `/etc/systemd/system/bbb-webrtc-sfu.service.d/override.conf`, e assim
 não precisaria se alterar o arquivo de serviço a cada nova atualização.
 Porém, isso não funciona.
-:::
+{{< /alert >}}
diff --git a/content/pt-br/docs/virtuals/webmail.md b/content/pt-br/docs/virtuals/webmail.md
index 19fa15058866c7abb7de4150098f4d8fc5fb23f3..4a3ff45bfa9d6c10870416ea411c38ba810d56d4 100644
--- a/content/pt-br/docs/virtuals/webmail.md
+++ b/content/pt-br/docs/virtuals/webmail.md
@@ -4,10 +4,9 @@ title: webmail
 
 O Roundcube pode ser instalado via Salt.
 
-{{% pageinfo %}}
+{{< alert title="Nota" >}}
 É necessário "abrir a máquina virtual para o mundo" antes de rodar estes estados.
-{{% /pageinfo %}}
-
+{{< /alert >}}
 
 ## Instalação