Giter Site home page Giter Site logo

analysus's Introduction


AnalySUS

O Sistema Único de Saúde (SUS) é um dos maiores e mais complexos sistemas de saúde pública do mundo, abrangendo desde o simples atendimento para avaliação da pressão arterial, por meio da Atenção Primária, até o transplante de órgãos, garantindo acesso integral, universal e gratuito para toda a população do país.

A Atenção Primária à Saúde (APS) é o primeiro nível de atenção em saúde e se caracteriza por um conjunto de ações de saúde, no âmbito individual e coletivo, que abrange a promoção e a proteção da saúde, a prevenção de agravos, o diagnóstico, o tratamento, a reabilitação, a redução de danos e a manutenção da saúde com o objetivo de desenvolver uma atenção integral que impacte positivamente na situação de saúde das coletividades. Trata-se da principal porta de entrada do SUS e do centro de comunicação com toda a Rede de Atenção dos SUS.

O foco na atenção primária se torna um dos pontos principais na logística de recursos e atendimento. Já que evitando que enfermidades venham a se agravar, estaremos evitando a ocupação de leitos de internações, aliviando todo o sistema em cadeia.

Objetivos e resultados chave

Observando o poder computacional de auxílio na tomada de decisão, este projeto visa analisar os dados referentes às internações do SUS, levantando informações pertinentes para a melhoria no atendimento na atenção primária.

Utilizando-se de métodos preditivos de análise de dados é pretendido realizar um apontamento prévio com poucas informações iniciais no momento do atendimento primário, podendo sugerir uma maior prioridade em casos de maior probabilidade de uma futura internação.

  • Captar dados da base oficial do Governo
    • Selecionar as bases necessárias
    • Identificar bases secundárias para complementar a informação
  • Realizar a análise exploratória
    • Identificar variáveis e descrevê-las
    • Tratar valores faltantes
    • Realizar comparações
    • Gerar gráficos e anotações
  • Criar um modelo de Regressão capaz de predizer as internações de dois meses adiante
    • Preparar os dados
    • Selecionar possíveis modelos
    • Selecionar o modelo mais eficiente
  • Implementar aplicação que receba um arquivo CSV realize uma análise exploratória automática
    • Criar telas de fácil compreensão e usabilidade
    • Gerar gráficos a partir dos dados enviados
    • Predizer as internações dos dois meses subsequentes

Conteúdo

  • Analysus_EDA
    • Pré-processamento dos dados
    • Preparação dos datasets
    • Análise exploratória (Visualização de dados)
  • PipelinePredict
    • Aquisição dos dados
    • DataFrame final para o treinamento e teste de modelos
    • Configurações dos Modelos
    • Treinamento dos Modelos
    • Exemplo de Predição

Utilização

  • Instalar o Python
  • Instalar o Poetry
    • Clonar projeto
    • Comando: poetry install
    • Comando: poetry shell
  • Ultilização do notebook
    • Comando: Jupyter lab

Desenvolvedores

Igor Duarte Josué dos Santos Rafael P. dos Santos Vanessa Camelo

Organização de diretórios

.
├── data/                   # Diretório contendo todos os arquivos de dados (Geralmente está no git ignore ou git LFS)
│   ├── external/           # Arquivos de dados de fontes externas
│   ├── processed/          # Arquivos de dados processados
│   └── raw/                # Arquivos de dados originais, imutáveis
├── docs/                   # Documentação gerada através de bibliotecas como Sphinx
├── models/                 # Modelos treinados e serializados, predições ou resumos de modelos
├── notebooks/              # Diretório contendo todos os notebooks utilizados nos passos
├── references/             # Dicionários de dados, manuais e todo o material exploratório
├── reports/                # Análioses geradas como html, latex, etc
│   └── figures/            # Imagens utilizadas nas análises
├── src/                    # Código fonte utilizado nesse projeto
│   ├── data/               # Classes e funções utilizadas para download e processamento de dados
│   ├── deployment/         # Classes e funções utilizadas para implantação do modelo
│   └── model/              # Classes e funções utilizadas para modelagem
├── pyproject.toml          # Arquivo de dependências para reprodução do projeto
├── poetry.lock             # Arquivo com subdependências do projeto principal
├── README.md               # Informações gerais do projeto
└── tasks.py                # Arquivo com funções para criação de tarefas utilizadas pelo invoke

analysus's People

Contributors

vansharine avatar josuesantos avatar igorduartt avatar josuesantossvm avatar mariliacristina avatar omadson avatar rafae1ps avatar

Watchers

 avatar  avatar  avatar

analysus's Issues

Preparação dos dados

Esta etapa é necessária para efetuar a preparação dos conjuntos de dados que serão utilizados na etapa de modelagem. É uma das etapas mais importantes, pois ela afeta diretamente a possibilidade de bons resultados na etapa de modelagem.

Vocês deverão efetuar as tarefas seguintes (se acharem necessárias):

  • Selecionar os dados: determinar quais conjuntos de dados serão utilizados e documentar os motivos de inclusão/exclusão.
  • Limpar dados: Corrigir, imputar ou remover valores erroneamente inseridos nos conjuntos de dados.
  • Construir dados: derivar novos atributos que serão úteis. Por exemplo, derivar o IMC de alguém a partir da altura e peso.
  • Integrar dados: criar novos conjuntos de dados combinando dados de várias fontes.
  • Formatar dados: Formatar novamente os dados conforme as necessidades dos modelos.

Criem um notebook com o nome 02-data-preparation.ipynb (dentro da pasta de notebooks/) e documentem o máximo necessário para que pessoas que não estão participando do processo todo também consigam entender.

Atividades a serem feitas

  1. Dataset com todos os CEPS de fortaleza
  2. Análise exploratória dos dados
  3. Indicadores de UBS de todos os bairros
  4. IDH dos bairros

Entendimento de dados

A etapa de entendimento dos dados direciona o foco para identificar, coletar e analisar os conjuntos de dados que podem ajudá-lo a cumprir os objetivos do projeto. Esta fase também possui quatro tarefas:

  • Coletar os dados iniciais: adquirir os dados necessários e (se necessário) carregá-los em ferramentas de análise.
  • Descrever os dados: examinar os dados e documentar suas propriedades superficiais, como formato de dados, número de registros ou identidades de variáveis.
  • Explorar os dados: realizar uma análise mais aprofundada nos dados. Consultar, visualizar e identificar relações entre dados e variáveis.
  • Verificar a qualidade dos dados: realizar análises a respeito da qualidade dos dados: o quão limpos são? Também é necessário documentar qualquer tipo de problema de qualidade dos dados.

Essa entrega será feita utilizando um notebook com o nome 01 - Exploratory Data Analysis.ipynb, dentro do diretório notebooks/. Tal notebook conterá a descrição dos dados, bem como a Exploração dos mesmos, através da utilização de gráficos e estatísticas descritivas sobre os dados. Além disso, uma análise de qualidade será necessária.

Integração dos dados

Criar novo DataFrame por Ano, Mês, Qtde de internações da doença 1, doença 2,..., doença 8, Qtde de pacientes do sexo feminino, Qtde de pacientes do sexo masculino e Faixa de idade

Entendimento de negócio

A etapa de entendimento de negócio se destina a compreensão dos objetivos e requisitos do projeto. Nessa fase vocês precisam executar as seguintes tarefas:

  • Determinar os objetivos de negócio: nessa etapa a equipe deve "entender completamente, de uma perspectiva de negócios, o que o cliente realmente deseja realizar" e, em seguida, definir os critérios de sucesso do negócio.
  • Avaliar a situação: após definir quais os critérios de sucesso, deve-se determinar a disponibilidade de recursos, os requisitos do projeto, avaliar os riscos e contingências e conduzir uma análise de custo-benefício.
  • Determinar as metas de mineração de dados: além de definir os objetivos de negócios, a equipe também deve definir o que é sucesso de uma perspectiva técnica de mineração de dados.
  • Produzir o plano do projeto: selecionar tecnologias e ferramentas e definir planos detalhados para cada fase do projeto.

Vocês precisam documentar cada uma dessas coisas. Por hora, coloquem em documentos separados. Mais tarde iremos colocar tudo na documentação.

Integração dos dados

Criar novo DataFrame por Ano, Mês, Qtde de internações da doença 1, doença 2,..., doença 8, Qtde de pacientes do sexo feminino, Qtde de pacientes do sexo masculino e Faixa de idade

Recommend Projects

  • React photo React

    A declarative, efficient, and flexible JavaScript library for building user interfaces.

  • Vue.js photo Vue.js

    🖖 Vue.js is a progressive, incrementally-adoptable JavaScript framework for building UI on the web.

  • Typescript photo Typescript

    TypeScript is a superset of JavaScript that compiles to clean JavaScript output.

  • TensorFlow photo TensorFlow

    An Open Source Machine Learning Framework for Everyone

  • Django photo Django

    The Web framework for perfectionists with deadlines.

  • D3 photo D3

    Bring data to life with SVG, Canvas and HTML. 📊📈🎉

Recommend Topics

  • javascript

    JavaScript (JS) is a lightweight interpreted programming language with first-class functions.

  • web

    Some thing interesting about web. New door for the world.

  • server

    A server is a program made to process requests and deliver data to clients.

  • Machine learning

    Machine learning is a way of modeling and interpreting data that allows a piece of software to respond intelligently.

  • Game

    Some thing interesting about game, make everyone happy.

Recommend Org

  • Facebook photo Facebook

    We are working to build community through open source technology. NB: members must have two-factor auth.

  • Microsoft photo Microsoft

    Open source projects and samples from Microsoft.

  • Google photo Google

    Google ❤️ Open Source for everyone.

  • D3 photo D3

    Data-Driven Documents codes.