Nov 18, 2023
VinDr
Dados Científicos volume 9,
Scientific Data volume 9, Número do artigo: 429 (2022) Citar este artigo
8653 acessos
23 Citações
2 Altmétrica
Detalhes das métricas
A maioria dos conjuntos de dados de radiografia de tórax existentes inclui rótulos de uma lista de achados sem especificar suas localizações nas radiografias. Isso limita o desenvolvimento de algoritmos de aprendizado de máquina para a detecção e localização de anormalidades torácicas. Neste trabalho, descrevemos um conjunto de dados de mais de 100.000 radiografias de tórax que foram coletadas retrospectivamente de dois grandes hospitais no Vietnã. A partir desses dados brutos, liberamos 18.000 imagens que foram anotadas manualmente por um total de 17 radiologistas experientes com 22 rótulos locais de retângulos ao redor de anormalidades e 6 rótulos globais de doenças suspeitas. O conjunto de dados liberado é dividido em um conjunto de treinamento de 15.000 e um conjunto de teste de 3.000. Cada varredura no conjunto de treinamento foi rotulada independentemente por 3 radiologistas, enquanto cada varredura no conjunto de teste foi rotulada pelo consenso de 5 radiologistas. Projetamos e construímos uma plataforma de rotulagem para imagens DICOM para facilitar esses procedimentos de anotação. Todas as imagens são disponibilizadas publicamente no formato DICOM junto com os rótulos do conjunto de treinamento e do conjunto de teste.
Medidas)
doenças e achados anormais de radiografias de tórax
Tipos de tecnologia
A IA é usada para detectar doenças e achados anormais
Característica da Amostra - Localização
Vietnã
Os sistemas de diagnóstico auxiliado por computador (CAD) para radiografias de tórax (também conhecidas como radiografia de tórax ou CXR) alcançaram recentemente grande sucesso graças à disponibilidade de grandes conjuntos de dados rotulados e aos recentes avanços de algoritmos de aprendizado supervisionado de alto desempenho1,2, 3,4,5. Aproveitando as redes neurais convolucionais profundas (CNN)6, esses sistemas podem alcançar o desempenho de nível de especialista na classificação de doenças pulmonares comuns e achados relacionados. O treinamento de uma CNN depende fortemente de conjuntos de dados de imagens anotadas de alta qualidade. No entanto, é caro e demorado construir tais conjuntos de dados devido a várias restrições: (1) dados médicos são difíceis de recuperar de hospitais ou centros médicos; (2) a anotação manual pelos médicos é cara; (3) a anotação de imagens médicas requer um consenso de vários leitores especialistas para superar o viés humano7; e (4) carece de uma estrutura de rotulagem eficiente para gerenciar e anotar conjuntos de dados médicos em larga escala.
Conjuntos de dados públicos notáveis de CXR incluem ChestX-ray8, ChestX-ray148, Padchest9, CheXpert2 e MIMIC-CXR10. O ChestX-ray14, uma versão estendida do ChestX-ray8, foi lançado pelos Institutos Nacionais de Saúde (NIH) dos EUA, contendo mais de 112.000 exames de CXR de mais de 30.000 pacientes. Sem ser anotado manualmente, esse conjunto de dados apresenta problemas significativos relacionados à qualidade de seus rótulos11. Padchest consiste em mais de 160.000 imagens de CXR, 27% das quais foram rotuladas manualmente por radiologistas com 174 achados diferentes e 19 diagnósticos. O restante do conjunto de dados foi rotulado usando uma ferramenta de processamento de linguagem natural (NLP). CheXpert lançado recentemente fornece mais de 200.000 CXRs de 65.240 pacientes, que foram rotulados para a presença de 14 observações usando um rotulador automatizado baseado em regras que extrai palavras-chave de relatórios médicos. Adotando o mesmo mecanismo de rotulagem, o MIMIC-CXR contém 377.110 imagens no formato DICOM juntamente com relatórios de radiologia em texto livre. A Tabela 1 fornece um resumo dos conjuntos de dados mencionados acima, juntamente com outros de tamanhos moderados, incluindo JSRT12, Indiana13, MC14 e SH14.
A maioria dos conjuntos de dados CXR existentes depende de rotuladores automatizados baseados em regras que usam correspondência de palavras-chave (por exemplo, CheXpert2 e NIH labelers8) ou um modelo NLP para extrair rótulos de doenças de relatórios de radiologia de texto livre. Essas ferramentas podem produzir rótulos em larga escala, mas, ao mesmo tempo, apresentam uma alta taxa de inconsistência, incerteza e erros11,15. Esses rótulos ruidosos podem levar ao desvio de algoritmos baseados em aprendizado profundo de desempenhos relatados quando avaliados em um cenário do mundo real16. Além disso, as abordagens baseadas em relatórios apenas associam uma imagem CXR a um ou vários rótulos em uma lista predefinida de achados e diagnósticos sem identificar suas localizações. Existem alguns conjuntos de dados CXR que incluem locais anotados de anormalidades, mas são muito pequenos para treinar modelos de aprendizado profundo (JSRT) ou não são detalhados o suficiente (PadChest). A interpretação de um CXR não se resume apenas à classificação no nível da imagem; é ainda mais importante, do ponto de vista do radiologista, localizar as anormalidades na imagem. Isso explica em parte por que as aplicações de sistemas CAD para RX na prática clínica ainda são muito limitadas.

