fbpx

Métricas de Avaliação em Modelos de Classificação em Machine Learning

Rafael Duarte por Rafael Duarte
novembro 30, 2023
em Machine Learning
0
96
COMPARTILHAMENTOS
3.2k
VIEWS
Publicar no LinkedInCompartilhar no FacebookCompartilhar no Whatsapp

A avaliação de modelos de classificação em Machine Learning é uma etapa crítica para determinar o quão bem o modelo está se comportando na tarefa de prever as classes das amostras.

Existem diversas métricas de avaliação disponíveis para medir o desempenho de modelos de classificação. Aqui, exploraremos algumas das métricas mais comuns, incluindo a Acurácia, a Precisão, o Recall, a F1-Score e a Área sob a Curva ROC (AUC-ROC).

Vamos analisar cada uma dessas métricas e e aprender como calculá-las.

 

avaliação de modelos de classificação

 

Acurácia

 

A Acurácia é uma métrica simples e amplamente utilizada que mede a proporção de previsões corretas feitas pelo modelo. A fórmula para calcular a acurácia é:

 

Acurácia

 

A acurácia é fácil de entender e interpretar, mas pode ser enganosa em conjuntos de dados desbalanceados, onde uma classe é muito mais comum do que a outra.

É necessário ter muita atenção ao utilizar essa métrica, por sua simplicidade. Dependendo da natureza do seu problema e do custo do erro, pode ser melhor avaliar e otimizar seu modelo a partir de uma outra métrica.

 

Precisão

 

A Precisão é uma métrica que mede a proporção de previsões positivas feitas pelo modelo que estão corretas.

Ela é especialmente útil quando o custo de falsos positivos é alto. Ou seja, ter um falso positivo é um grande problema.  Um exemplo clássico disso seria classificação de emails entre Spam e Normais.

É preferível deixar um Spam ir para a Caixa de Entrada (Falso Negativo) do que mandar um email importante para a caixa de Spam (Falso Positivo).

 

A fórmula para calcular a precisão é:

 

Precisão

 

Recall (Sensibilidade)

 

O Recall, também conhecido como Sensibilidade, mede a proporção de exemplos positivos que foram corretamente identificados pelo modelo.

Ele é especialmente útil quando o custo de falsos negativos é alto.

Aqui, o problema é o oposto do Precision. Um exemplo clássico seria a identificação de fraudes em cartão de crédito.

É preferível bloquear uma transação autêntica (Falso Positivo) do que aprovar uma transação fraudulenta (Falso Negativo).

A fórmula para calcular o recall é:

 

Recall

 

F1-Score

 

O F1-Score é a média harmônica entre a Precisão e o Recall e fornece um equilíbrio entre essas duas métricas. Ele é útil quando você deseja levar em consideração tanto os falsos positivos quanto os falsos negativos.

A fórmula para calcular o F1-Score é:

 

F1-Score

 

Área sob a Curva ROC (AUC-ROC)

 

A AUC-ROC é uma métrica que avalia o desempenho de modelos de classificação binária em diferentes limites de decisão.

Ela mede a área sob a curva da Taxa de Verdadeiros Positivos (Recall) em função da Taxa de Falsos Positivos.

Quanto maior a AUC-ROC, melhor o modelo está em separar as classes.

Um valor de AUC-ROC de 0,5 indica um desempenho aleatório, enquanto um valor de 1 indica um desempenho perfeito, como podemos ver nas imagens abaixo.

 

AUC-ROC

 

Escolhendo a Métrica Certa

 

A escolha da métrica depende do problema específico e dos requisitos do projeto. Se você está lidando com um problema de classificação binária equilibrada, a acurácia pode ser uma métrica adequada.

No entanto, em problemas desequilibrados ou quando os custos de falsos positivos e falsos negativos são diferentes, outras métricas, como precisão, recall ou F1-Score, podem ser mais apropriadas.

A AUC-ROC é útil para avaliar modelos em diferentes limiares de decisão.

As métricas de avaliação em modelos de classificação desempenham um papel fundamental na medição do desempenho do modelo e na escolha do modelo final.

É importante entender as nuances de cada métrica e escolher aquela que melhor atende aos objetivos do SEU projeto.

 

Compartilhar7Compartilhar38Enviar
Post Anterior

Underfitting, Overfitting e o Princípio de Bias-Variance Trade-off

Próximo Post

SQL vs. NoSQL para Análise e Ciência de Dados

Rafael Duarte

Rafael Duarte

Relacionado Artigos

Por que o ChatGPT mente para você?
Artigos

Por que o ChatGPT mente para você?

por Carlos Melo
setembro 16, 2025
Curso de Pós-Graduação em Data Science
Data Science

Vale a pena fazer uma Pós-Graduação em Data Science?

por Carlos Melo
janeiro 20, 2025
Review do Livro “Mãos à obra: Aprendizado de Máquina com Scikit-Learn, Keras & TensorFlow”
Livros

Review do Livro “Mãos à obra: Aprendizado de Máquina com Scikit-Learn, Keras & TensorFlow”

janeiro 18, 2025
Carlos Melo e Sérgio Sacani – Ciência Sem Fim
Youtube

Carlos Melo e Sérgio Sacani – Ciência Sem Fim

por Carlos Melo
janeiro 16, 2025
Visão Computacional

Processamento de Nuvens de Pontos com Open3D e Python

por Carlos Melo
janeiro 2, 2025
Próximo Post

SQL vs. NoSQL para Análise e Ciência de Dados

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Pós-Graduação em Data Science Pós-Graduação em Data Science Pós-Graduação em Data Science

Mais Populares

  • Introdução ao MediaPipe e Pose Estimation

    Introdução ao MediaPipe e Pose Estimation

    514 compartilhamentos
    Compartilhar 206 Tweet 129
  • Por que o ChatGPT mente para você?

    9 compartilhamentos
    Compartilhar 4 Tweet 2
  • ORB-SLAM 3: Tutorial Completo para Mapeamento 3D e Localização em Tempo Real

    426 compartilhamentos
    Compartilhar 170 Tweet 107
  • Geometria da Formação de Imagens: Matrizes, Transformações e Sistemas de Coordenadas

    399 compartilhamentos
    Compartilhar 160 Tweet 100
  • O Que é Amostragem e Quantização no Processamento de Imagens

    20 compartilhamentos
    Compartilhar 8 Tweet 5
  • Em Alta
  • Comentários
  • Mais Recente
Como Tratar Dados Ausentes com Pandas

Como Tratar Dados Ausentes com Pandas

agosto 13, 2019
Como usar o DALL-E 2 para gerar imagens a partir de textos

Como usar o DALL-E 2 para gerar imagens a partir de textos

dezembro 25, 2022
Introdução ao MediaPipe e Pose Estimation

Introdução ao MediaPipe e Pose Estimation

julho 15, 2023

ORB-SLAM 3: Tutorial Completo para Mapeamento 3D e Localização em Tempo Real

abril 10, 2023
Como Analisar Ações da Bolsa com Python

Como Analisar Ações da Bolsa com Python

15
Setembro Amarelo: Análise do Suicídio no Brasil, com Data Science

Setembro Amarelo: Análise do Suicídio no Brasil, com Data Science

13
Como Aprender Data Science?

Como Aprender Data Science?

9
Qual o Cenário de Data Science no Brasil hoje?

Qual o Cenário de Data Science no Brasil hoje?

8
Por que o ChatGPT mente para você?

Por que o ChatGPT mente para você?

setembro 16, 2025
Green Card aprovado por habilidades extraordinárias em Data Science

Green Card aprovado por habilidades extraordinárias em Data Science

julho 14, 2025
O Que é Amostragem e Quantização no Processamento de Imagens

O Que é Amostragem e Quantização no Processamento de Imagens

junho 20, 2025
DeepSeek vazamento de dados de usuários

DeepSeek: Vazamento de dados expõe dados de usuários

fevereiro 1, 2025
Sigmoidal Curso de Data Science
© Courso. 2020 Pixelshow.
All rights reserved.

Add New Playlist

Sem Resultado
Ver Todos Resultados
  • Home
  • Cursos
  • Pós-Graduação
  • Blog
  • Sobre Mim
  • Contato
  • English

© 2024 Sigmoidal - Aprenda Data Science, Visão Computacional e Python na prática.

Powered by Joinchat
👋 Olá! Precisa de ajuda para escolher seu curso?
Abrir bate-papo