Skip to content

Codelivery is an application to simulate deliveries, using Microservice, Apache Kafka, Docker, API with Node.js and React on the Frontend

License

Notifications You must be signed in to change notification settings

Sup3r-Us3r/codelivery

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

41 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Code Delivery

codedelivery

Essa aplicação simula o trajeto de uma entrega que vai do ponto A para um ponto B, e para essa simulação funcionar a comunicação é feita em tempo real, após iniciar uma corrida o Frontend da aplicação envia a rota que deseja obter o percurso para a API, e essa API solicita as posições para um Microserviço, esse Microserviço processa cada posição que será preciso para completar o percurso, e envia para a API de 500 em 500ms e essa API envia essa posição para o Frontend, com isso é possível ver o carro que iniciou a entrega se mover, devido a posição que foi enviada.

code-delivery.mp4

🚀 Tecnologias

Fluxo da aplicação

Nesse fluxo é apresentado as etapas de execução e a comunicação entre os sistemas.

Existem 3 sistemas o Frontend, a API e o Microserviço que é o simulador, esses sistemas conversam entre si, o Frontend e a API conversam por meio do WebSocket utilizando o SocketIO, e a API e o Microserviço conversam por meio de tópicos utilizando o Apache Kafka, onde ocorre a produção de uma mensagem e o consumo da mesma.

Para entender o fluxo abaixo é bem simples, comece pelo sistema do Frontend e inicie pela linha azul, depois é só seguir as setas que você chegará a execução final.

Basicamente a linha azul podemos considerar que é o fluxo da requisição/solicitação, e a linha verde é o fluxo da resposta/conslusão até o cliente final.

code-delivery-application

Fluxo de operação do Kafka Connect

O Kafka Connect é usado nesse sistema para obtermos as informações que foram produzidas nos tópicos do Kafka, é utilizado um conector do tipo sink que fica obtendo as mensagens produzidas nesses tópicos e manda elas para o Elasticsearch, e com essas informações obtidas utilizamos o Kibana para criar Dashboards, entre outras coisas que da para fazer.

code-delivery-kafka-connect

Conseguimos criar Dashboards como essa por exemplo:

kibana-dashboard

Essa Dashboard é bem simples, o propósito foi utilizar das informações que foram obtidas pelo Kafka Connect e mostrar alguns indicadores com base nisso.

Configurando ambiente

Configurando ambiente

É necessário efetuar algumas configurações, para quando for iniciar o ambiente ele subir corretamente.

Todas as aplicações estão rodando com a utilização do Docker e Docker Compose então é necessário ter essas ferramentas instaladas em seu sistema.

Um outro ponto importante é que os ambientes estão separados por responsabilidade, por exemplo, tudo que é relacionado ao Apache Kafka e Elasticsearch está dentro de sua respectiva pasta, mas esses ambientes precisam se comunicar entre si, e uma excelente forma de fazer isso é usar o recurso extra_hosts do Docker, pois eles não estão dentro de um mesmo arquivo docker-compose.yaml, e sim separados.

Os containers necessários estão todos configurados com esse recurso, mas seu sistema precisa ter uma configuração adicional dentro de /etc/hosts com o seguinte conteúdo:

127.0.0.1 host.docker.internal

Após efetuar essa configuração, reinicie seu sistema.

API

O arquivo .env.example já está preenchido corretamente para o uso, basta copiá-lo:

$ cd api
$ cp .env.example .env

Frontend

O arquivo .env.local.example está quase completo, falta preencher a variável NEXT_PUBLIC_GOOGLE_API_KEY

Esse projeto utiliza na parte de mapas o Google Maps, e para utilizar esse mapa é necessário obter uma API Key que precisamos gerar no GCP (Google Cloud Platform).

Acesse a GPC: https://console.cloud.google.com

Ative os serviços necessários

Acesse APIs e serviçosPainel → clique na opção ATIVAR APIS E SERVIÇOS

Você deve ativar 2 serviços

  • Maps JavaScript API
  • Directions API

gcp-apis-and-services

OBS: a API de mapas do Google não é gratuito, você precisa ativar seu teste gratuito, e com isso você ganha US$ 300,00 para gastar com os serviços da plataforma, mas fique tranquilo após acabar os créditos você não será cobrado, os serviços param de funcionar, até você ativar sua conta para uma normal.

Gerando credenciais

Após ter ativado os 2 serviços no passo anterior, é necessário gerar a API key.

Acesse APIs e serviçosCredenciais+ Criar CredenciaisChave de API

Pronto, agora basta copiar o valor da chave que foi gerado, e adicionar na variável de ambiente NEXT_PUBLIC_GOOGLE_API_KEY:

$ cd frontend
$ cp .env.local.example .env.local
Executando aplicações

Executando aplicações

Abaixo segue as instruções para rodar todas as aplicações:

Apache Kafka

O ambiente do Apache Kafka irá subir o próprio Apache Kafka junto com o Kafka Connect, Zookeeper, Kafka Topics Generator e Control Center.

$ cd apache-kafka
$ docker-compose up -d

Elasticsearch

O ambiente do Elasticsearch irá subir o próprio Elasticsearch e também o Kibana.

$ cd elastic-stack
$ docker-compose up -d

OBS: possivelmente o container do Elasticsearch pode retornar algum erro, verifique a sessão que foi feita nessa documentação exclusivamente para tratar esse problema.

API

O ambiente da API irá subir o Node.js para iniciar o servidor, MongoDB e Mongo Express.

$ cd api
$ docker-compose up -d

Microserviço

O ambiente do Microserviço irá subir somente o Node.js.

$ cd simulator
$ docker-compose up -d

Frontend

O ambiente do Frontend irá subir o Node.js para iniciar o servidor do Next.js e executar a aplicação.

$ cd frontend
$ docker-compose up -d
Solucionando problemas no Elasticsearch

Solucionar problemas no Elasticsearch

Se o container Elasticsearch não iniciar, a primeira coisa que você precisa fazer é examinar os logs:

$ docker logs es01 -f

Se o erro for:

Caused by: java.nio.file.AccessDeniedException: /usr/share/elasticsearch/data/nodes

Este erro ocorre por falta de permissão na pasta onde o volume do Elasticsearch está concentrado, existem duas formas de resolver, siga as soluções abaixo:

Alterando as permissões da pasta es01 que está na sua máquina normal, essa pasta é gerada na tentativa de executar o container Elasticsearch:

$ sudo chown -R 1000:1000 es01
$ docker start es01

Mudando as permissões da pasta /usr/share/elasticsearch/data que está dentro do container do Elasticsearch, mas há um problema, o container não consegue ficar UP por muito tempo então você precisa executar os comandos rapidamente:

$ docker start es01 && docker exec -it es01 /bin/bash

# Dentro do container execute:
$ cd /
$ chown -R 1000:1000 /usr/share/elasticsearch/data

Se o erro for:

es01 exited with code 78

bootstrap check failure [1] of [1]: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]

Executar o comando abaixo em seu sistema normal:

$ sudo sysctl -w vm.max_map_count=262144
$ docker start es01
Configurando Kafka Connect + Elasticsearch + Kibana

Configurando Kafka Connect + Elasticsearch + Kibana

Esse procedimento é opcional, mas com ele você será capaz de utilizar o Elasticsearch e Kibana para utilizar os dados recebidos em uma Dashboard que você poderá criar.

Para fazer a integração com o Kafka Connect, precisamos adicionar o conector do Elasticsearch, que já está todo configurado e localizado em apache-kafka/connectors/elastisearch.properties, por esse conector ser do tipo sink os dados obtidos dos tópicos route.new-direction e route.new-position vão ser enviados para o Elasticsearch.

Adicionando conector

Certifique-se que o ambiente do Apache Kafka e todos os outros estejam rodando.

Acesse o Controle Center pelo endereço: http://localhost:9021

  • 2.1 - Clique em controlcenter.cluster
  • 2.2 - Clique em Connect
  • 2.3 - Clique em connect-default
  • 2.4 - Clique em Add connector
  • 2.5 - Clique em Upload connector config file e selecione o connector do Elasticsearch que está em apache-kafka/connectors/elastisearch.properties
  • 2.6 - Clique em Continue
  • 2.7 - Clique em Launch

Se tudo der certo, o conector irá ficar Running

Criando Mappings no Kibana

Acesse o Kibana pelo endereço: http://localhost:5601

  • 1.1 - Clique em Explore on my own

Expanda o menu lateral, e acesse: ManagementDev Tools

Cole esse mapping abaixo, para o tópico route.new-direction e clique em um botão verde para executar essa requisição:

PUT route.new-direction
{
  "mappings": {
    "properties": {
      "clientId": {
        "type": "text",
        "fields": {
          "keyword": {
            "type": "keyword"
          }
        }
      },
      "routeId": {
        "type": "text",
        "fields": {
          "keyword": {
            "type": "keyword"
          }
        }
      },
      "timestamp": {
        "type": "date"
      }
    }  
  }
}

Agora faça o mesmo para o tópico route.new-position com o mapping abaixo:

PUT route.new-position
{
  "mappings": {
    "properties": {
      "clientId": {
        "type": "text",
        "fields": {
          "keyword": {
            "type": "keyword"
          }
        }
      },
      "routeId": {
        "type": "text",
        "fields": {
          "keyword": {
            "type": "keyword"
          }
        }
      },
      "position": {
        "type": "geo_point"
      },
      "finished": {
        "type": "boolean"
      },
      "timestamp": {
        "type": "date"
      }
    }  
  }
}

Se retornar o status 200 - OK então a requisição foi efetuada com sucesso.

Criando Index Patterns

No Kibana expanda o menu lateral, e acesse: ManagementStack Management

  • 1.1 - Na sessão do Kibana clique em Index Patterns

Clique em Create index pattern

Você precisa criar 2 Index Patterns, um para o tópico route.new-direction e outro para route.new-position

No campo Name coloque o nome do tópico que está criando, e no campo Timestamp field selecione timestamp

Após isso basta clicar em Create index pattern

Considerações finais

Bom nesse momento você está com tudo configurado corretamente, agora basta explorar os recursos do Kibana, você pode expandir o menu lateral acessar a sessão de AnalyticsDiscover, pode também criar visualizações em AnalyticsVisualize Library etc.

About

Codelivery is an application to simulate deliveries, using Microservice, Apache Kafka, Docker, API with Node.js and React on the Frontend

Topics

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published