Skip to main content
Arquivos Brasileiros de Cardiologia logoLink to Arquivos Brasileiros de Cardiologia
. 2020 May 12;114(4):718–725. [Article in Portuguese] doi: 10.36660/abc.20180431
View full-text in English

Inteligência Artificial em Cardiologia: Conceitos, Ferramentas e Desafios – “Quem Corre é o Cavalo, Você Precisa ser o Jóquei”

Erito Marques de Souza Filho 1,2, Fernando de Amorim Fernandes 1, Celine Lacerda de Abreu Soares 1, Flavio Luiz Seixas 1, Alair Augusto Sarmet MD dos Santos 1, Ronaldo Altenburg Gismondi 1, Evandro Tinoco Mesquita 1, Claudio Tinoco Mesquita 1
PMCID: PMC9744354  PMID: 32491009

Resumo

Os recentes avanços ao nível de hardware e a crescente exigência de personalização dos cuidados associados às necessidades urgentes de criação de valor para os pacientes contribuíram para que a Inteligência Artificial (IA) promovesse uma mudança significativa de paradigma nas mais diversas áreas do conhecimento médico, em particular em Cardiologia, por sua capacidade de apoiar a tomada de decisões e melhorar o desempenho diagnóstico e prognóstico. Nesse contexto, o presente trabalho faz uma revisão não-sistemática dos principais trabalhos publicados sobre IA em Cardiologia, com foco em suas principais aplicações, possíveis impactos e desafios.

Keywords: Inteligência Artificial/tendências, Sistemas de Computação/tendências, Aprendizado de Máquina/tendências, Doenças Cardiovasculares, Tomada de Decisão Clínica

Introdução

A vida cotidiana de uma pessoa exige uma enorme quantidade de conhecimento sobre o mundo e o volume de dados em saúde cresce exponencialmente em todo o mundo.1 Por outro lado, o conhecimento biomédico está sempre se expandindo de maneira ativa e dinâmica e não pode ser processado ou armazenado por um único cérebro humano. Essa situação torna muito difícil para o médico contemporâneo manter-se atualizado com um amplo espectro de novos dados e descobertas, bem como em relação à utilização dessas informações com facilidade e em tempo hábil.2 Acrescentam-se a esse quadro as significativas taxas de burnout entre profissionais de saúde3 , 4 e o importante impacto de erros médicos – que nos Estados Unidos representam a terceira principal causa de morte.5 Esse panorama traz consigo a necessidade de reorganizar a estrutura produtiva dos serviços de saúde, associada a vários desafios e novas perspectivas. Dado que o sistema de saúde atual é geralmente improdutivo e /ou caro, é imperativo desenvolver estratégias alternativas e inovadoras. O foco central para alcançar esse objetivo deve ser aumentar o valor para o paciente – resultados alcançados por dólar gasto – para que bons resultados, obtidos com eficiência, sejam um objetivo a ser perseguido.6

Além disso, os recentes avanços ao nível de hardware relacionados ao processamento paralelo, a existência de vários métodos de aprendizado de máquina e a enorme quantidade de dados anotados contribuíram para que a inteligência artificial (IA) promovesse uma mudança significativa de paradigma nas mais diversas áreas do conhecimento médico, e particularmente em Cardiologia, por sua capacidade de apoiar a tomada de decisões que podem melhorar o desempenho diagnóstico e prognóstico. Esses impactos devem ser avaliados na perspectiva da segurança do paciente, personalização dos cuidados, criação de valor para os pacientes, no âmbito da vigilância tecnológica – que gradualmente consolida a IA como fundamental para uma prática médica de excelência.7 - 11

Esse cenário faz com que a IA, dada sua importância, seja considerada por muitos como a nova eletricidade. As principais Revistas de Cardiologia publicaram revisões nessa área e o número de artigos sobre o assunto segue uma tendência crescente, como mostra a Figura 1 – esse comportamento também é observado em outras especialidades médicas, como a neurologia. Portanto, o presente trabalho faz uma revisão não-sistemática dos principais trabalhos publicados sobre IA em Cardiologia, com foco em suas principais aplicações, potenciais impactos e desafios. A próxima seção apresenta os fundamentos conceituais do tópico, seguidos do motivo pelo qual a cardiologia precisa da IA e de suas principais ferramentas. Por fim, são apresentados os principais desafios, perspectivas e conclusões.

Figura 1. – Evolução do número de trabalhos relacionados (Inteligência Artificial ou Aprendizado de Máquina, ou Aprendizado Automático) e Cardiologia. Fonte: Pubmed. Acessado em 15/12/2018. Palavras do Medical Subject Headings (MeSH): Cardiologia e Aprendizado de Máquina.

Figura 1

O que é inteligência artificial (IA)?

O termo AI foi utilizado pela primeira vez na Conferência de Dartmouth em 1956.12 No entanto, a possibilidade de que as máquinas fossem capazes de simular o comportamento humano e realmente pensar foi levantada anteriormente por Alan Turing em 1950, que desenvolveu um teste para diferenciar os seres humanos de máquinas – denominado teste de Turing.13

Basicamente, a IA é o produto da combinação de modelos matemáticos sofisticados e computação, que permite o desenvolvimento de algoritmos complexos capazes de emular a inteligência humana. Todo esse processo inicia-se com a construção de um banco de dados representativo do problema que se deseja estudar – coletado e processado adequadamente – chamados dados saudáveis. Essa etapa é de fundamental importância, pois os algoritmos provavelmente não terão um bom desempenho se esse pré-requisito não for obtido: “ lixo na entrada, lixo na saída” .

A natureza desses dados é bastante variada, variando de dados socioambientais, clínico-laboratoriais a dados ômicos (por exemplo, metaboloma, proteoma, epigenoma, lipidoma) e informações das intensidades de vermelho, verde e azul (sistema RGB) de cada pixel que compõe uma imagem, por exemplo. Fontes igualmente diversificadas de tais dados incluem aquelas obtidas de registros médicos eletrônicos ou mesmo dispositivos “ wearable ” (“vestíveis”). Nesse contexto, o termo “Big Data” é utilizado para descrever uma enorme coleção de dados para os quais os métodos tradicionais de análise não são bem-sucedidos na análise, pesquisa, interpretação e armazenamento.9

Destacamos o uso dessas ferramentas em problemas de classificação, regressão e clusterização. Depois de obter dados saudáveis e construir o banco de dados, é importante avaliar quais modelos matemáticos de IA são mais apropriados para o problema que se deseja resolver. Em seguida, os modelos escolhidos devem ser implementados utilizando alguma linguagem de programação.

Uma combinação de modelos também pode ser útil. Os resultados obtidos pelo algoritmo devem ser analisados em termos de coerência e adequação. Essas etapas estão resumidas na Figura 2 .

Figura 2. – Ilustração principal.

Figura 2

Por que a cardiologia precisa de inteligência artificial?

O desenvolvimento de algoritmos de IA tem a vantagem de não exigir muitas suposições em relação aos dados subjacentes.8 Outro ponto é que a natureza desses modelos matemático-computacionais permite, a partir de dados observacionais, um alto nível de evidência devido ao seu alto desempenho, o que certamente representa uma mudança significativa de paradigma na medicina baseada em evidências. Deve-se notar que os ensaios clínicos tradicionais são geralmente lentos, caros, demorados e limitados em tamanho.14 Além disso, quando o banco de dados é alimentado com mais dados (saudáveis), em geral, há uma melhoria no desempenho dos algoritmos – o que permite que os estudos tenham um caráter contínuo ao longo do tempo.

Esse novo arquétipo pode guiar a alocação de recursos escassos na área da saúde e facilitar a identificação eficiente e precisa de decisões que favoreçam a individualização do cuidado com base no fluxo de informações que emergem de um ecossistema integrado e complexo: é uma medicina de precisão.15 , 16 Portanto, pode-se inferir que a prática das ciências cardiovasculares terá impactos significativos, que se traduzirão em uma abordagem personalizada e melhores resultados.

Conceitos básicos em inteligência artificial

Um banco de dados genérico pode ser organizado em uma matriz de linhas e colunas. Cada linha indica um elemento de um conjunto de objetos a ser avaliado de acordo com as mesmas características. Cada coluna, por sua vez, expressa os valores de um determinado atributo para as várias linhas no banco de dados e cada linha representa uma lição a ser aprendida pelo modelo matemático-computacional. Dessa maneira, o termo Aprendizado de Máquina (ML, machine learning ) traz consigo a possibilidade de “aprender” a partir de um conjunto de lições. O termo IA é frequentemente utilizado de forma intercambiável com o termo ML. No entanto, ML é um subconjunto de algoritmos de IA relacionados à capacidade de aprender a partir de uma grande quantidade de dados. A IA é mais ampla e engloba a execução de tarefas que normalmente estão relacionadas à inteligência humana, tais como reconhecimento de padrões, resolução de problemas, compreensão de linguagem ou reconhecimento de objetos e sons.17

Costuma-se dizer que os tipos de aprendizado podem ser:

  1. Supervisionados: quando o algoritmo recebe informações sobre cada lição, bem como os rótulos associados a ela, tendo um papel importante em relação à previsão. Por exemplo, se é desejado prever se um paciente é mais suscetível à tosse com o uso de inibidores da enzima de conversão da angiotensina, a análise deve ser realizada baseada em um banco de dados saudáveis contendo um grupo de pacientes que demonstrou essa reação e em outro grupo no qual esse fato não foi observado.

  2. Não-supervisionado: quando os rótulos das lições não são fornecidos a priori , cabe ao algoritmo encontrar estruturas ocultas no banco de dados. Um exemplo hipotético é a clusterização de um banco de dados de pacientes com cardiomiopatia hipertrófica de acordo com os achados de exame de imagem.

  3. Reforço: inspirado na biologia comportamental, é um tipo de aprendizado baseado em recompensa.18 , 19

Outro conceito importante é o da computação cognitiva. Ele pode ser entendido como um conjunto de sistemas de autoaprendizagem destinados a imitar o processo de pensamento humano com base no uso de ferramentas de ML, reconhecimento de padrões e processamento natural de linguagem.9 O IBM Watson é um exemplo da computação cognitiva na área médica.20 , 21

Algumas ferramentas e aplicativos de inteligência artificial

Atualmente, existem vários modelos de ML, cada um deles com diversas particularidades, usos e limitações variados. As aplicações de alguns desses modelos em Cardiologia são explicadas nos parágrafos seguintes, enquanto uma breve descrição de cada um deles e seu tipo é mostrada na Tabela 1 .

Tabela 1. – Breve descrição e classificação das principais ferramentas de ML.

Ferramenta Descrição Aprendizado
SVM É útil para problemas de classificação de dois grupos. A ideia é encontrar uma função chamada hiperplano a partir da resolução de um sistema linear construído a partir das várias lições do subconjunto de treinamento. 40 Esse hiperplano é utilizado para agrupar as lições do subconjunto de teste em dois grupos disjuntos. Supervisionado
NB Foi inspirado nos estudos do reverendo Bayes sobre a probabilidade condicional. 41 Essas probabilidades são usadas para identificar a categoria (de um total de n possível) a que uma lição específica pertence. 42 Supervisionado
KNN Diz-se que uma norma de vetor é uma função matemática, que satisfaz propriedades específicas, e associa um vetor a um valor maior ou igual a zero. 43 A norma da diferença entre dois vetores é a distância entre eles. O KNN utiliza uma norma para calcular a distância entre todos os vetores (lições) que compõem o banco de dados. Então, para cada vetor do banco de dados, os vetores k mais próximos a ele são determinados. A inclusão em um determinado grupo é obtida a partir de um sistema de votação majoritária entre os vizinhos. 44,45 Supervisionado
AG Algoritmos inspirados na evolução biológica das espécies, nos quais cada possível candidato para solucionar o problema é modelado como um cromossomo constituído por um conjunto de genes, que durante a execução do algoritmo é submetido a operações de cruzamento e mutação para obter melhor soluções que as atuais. 46 Dessa forma, eles permitem que um banco de dados seja separado, por exemplo, em dois grupos distintos – que possuem ou não uma característica específica. Supervisionado
RF Esse método é baseado na construção de várias árvores de decisão. O primeiro passo é obter várias amostras aleatórias (com reposição) de lições para criar outros bancos de dados, um processo chamado “bootstrapping”. Cada um desses novos bancos de dados dará origem a uma árvore de decisão, obtida de forma iterativa, a partir de um subconjunto de variáveis (características). Após a construção de todas as árvores, uma nova lição no banco de dados deve ser alocada ao grupo que tem o maior número de árvores de decisão, mostrando que ele pertence a esse grupo (maioria dos votos). 47,48 Supervisionado
K-means Permite particionar um banco de dados em k grupos com características semelhantes. Para isso, é necessário atualizar, de maneira iterativa, um conjunto de vetores, chamados centroides de referência de cada grupo e calcular a distância de cada lição para cada um. Uma lição é sempre alocada ao centroide para o qual ela tem a menor distância. O gráfico de cotovelo é geralmente utilizado para determinar o número ideal de grupos a serem separados do banco de dados. 49 Não supervisionado
ANN Inspirado nos sistemas nervosos biológicos, é utilizada uma estrutura chamada gráfico – um conjunto de nós e bordas – em que os nós são estratificados e conectados por bordas com valores, que representam um peso atribuído a uma determinada conexão. A ideia é que, a partir de um conjunto de entradas, esses pesos sejam utilizados corretamente para produzir uma saída. Várias arquiteturas foram propostas para redes neurais, desde as mais simples, como a perceptron, até as mais sofisticadas, como a função de base radial, redes convolucionais e aprendizado profundo. No aprendizado profundo, além das camadas de entrada e saída, existem camadas ocultas que aumentam significativamente o número de pesos a serem atualizados e geralmente exigem grandes esforços computacionais. A rede convolucional é um tipo de aprendizado profundo inspirada no córtex visual de animais que tem um papel importante na análise de imagens. Autoencoders e redes neurais de Kohonen são exemplos de aprendizado não supervisionado. 1,7,50-52 Não supervisionado ou Supervisionado
GB É um método baseado em árvore que utiliza gradientes, vetores relacionados à direção do aumento máximo em uma função matemática, para produzir árvores de decisão sequenciais a serem combinadas para aprimorar a previsão. Variantes desta abordagem incluem o Stochastic Gradient Descent que incorpora uma sub-amostra aleatória para GB. 53,54 Supervisionado
  1. Support Vector Machine (SVM): utilizada por Samad et al.,22 para prever com sucesso a deterioração da função ventricular em pacientes submetidos a reparo da tetralogia de Fallot a partir de um banco de dados de 153 pacientes com dados clínicos, eletrocardiográficos e de ressonância magnética cardíaca. Em relação à previsão de qualquer deterioração (menor ou maior) vs. nenhuma deterioração, a média da área sob a curva (AUC) foi de 0,82 ± 0,06.22 Berikol et al.23 utilizaram dados clínicos, laboratoriais (níveis de troponina I e CK-MB), do ECG e ecocardiográficos de 228 pacientes que apresentaram dor no peito no pronto-socorro para classificação quanto à presença ou ausência de Síndrome Coronariana Aguda. Precisão, sensibilidade e especificidade foram, respectivamente, 99,19, 98,22 e 100%.23 Betancur et al.,24 também utilizaram o SVM para definir com maior precisão o posicionamento do plano da válvula (PV) mitral durante a segmentação ventricular esquerda nos exames de Tomografia Computadorizada por Emissão de Fóton Único (SPECT). Imagens de 392 pacientes foram analisadas e os bons resultados obtidos foram compatíveis com a opinião de especialistas da área – AUC: 0,82 [0,74-0,9] para detecção regional de áreas de estenose obstrutiva e áreas de déficit de perfusão total isquêmica.24

  2. Naive Bayes (NB): Paredes et al.,25 utilizaram uma fusão de NB e algoritmo genético para prever o risco de ocorrência de eventos cardiovasculares (por exemplo, hospitalização ou morte), com base em dados de 559 pacientes com Síndrome Coronariana Aguda - Infarto do Miocárdio sem Supradesnivelamento do Segmento ST (SCA-IAMSST). Sensibilidade e especificidade foram, respectivamente, 79,8, e 83,8.25

  3. K-nearest neighbors (KNN): Al-Mallah et al.,26 compararam a previsão de mortalidade por todas as causas em 10 anos entre o modelo de regressão logística clássico e o KNN, considerando um banco de dados de 34.212 pacientes com informações clínicas e informações obtidas após o teste de esforço em esteira utilizando o protocolo padrão de Bruce.26 Os resultados obtidos por essa ferramenta de ML mostraram sensibilidade de 87,4% e especificidade de 97,2%, melhores do que o desempenho preditivo do tradicional escore de risco Atherosclerosis Cardiovascular Disease Risk Score (ASCVD).

  4. Genetic algorithms (GA): Smisek et al.,27 desenvolveram um dispositivo wearable (“vestível”) para detectar arritmias a partir do registro de informações de um eletrocardiograma de derivação única. Os dados foram analisados a partir de uma combinação do (SVM), árvore de decisão e regras baseadas em limiares. Algoritmos genéticos foram usados para selecionar as características mais adequadas a serem utilizadas no trabalho. Em relação à detecção de fibrilação atrial, obteve-se um escore F1 (média harmônica de valor preditivo positivo e sensibilidade) de 0,81.27 Stuckey et al.,28 utilizaram a Análise de Tomografia Espacial de Fase Cardíaca – um método pioneiro que dispensa o uso de radiação e contraste, bem como a realização de testes de esforço ou farmacológico – combinado com modelos de ML (por exemplo, algoritmos genéticos) para analisar os sinais da fase torácica. Neste estudo, os autores utilizaram essa ferramenta para avaliar pacientes com doença coronariana e dor torácica que foram encaminhados pelo médico para realizar uma angiografia. Foram estudados 606 pacientes e os resultados mostraram sensibilidade de 92%, especificidade de 62% e valor preditivo de 96% para doença coronariana.28

  5. Random Forests (RF): Samad et al.,29 analisaram um banco de dados composto por variáveis clínicas e eletrocardiográficas para avaliar a sobrevida em 10 diferentes períodos de tempo (variando de 6 a 60 meses), considerando um total de 171.510 pacientes. A RF foi utilizada, com excelentes resultados, melhor do que aqueles obtidos por meio de escores tradicionais, como o escore de risco de Framingham e o escore das diretrizes da ACC/AHA. A área sob a curva (AUC) foi superior a 0,82.29 Ambale-Venkatesh, et al.,30 utilizaram informações de testes não invasivos, questionários, biomarcadores e exames de imagem de 6.814 pacientes para construir 739 variáveis (características), a fim de aplicar uma variante do RF – chamada survivor random forests 31 – para prever eventos cardiovasculares. (morte por todas as causas, acidente vascular cerebral, todas as doenças cardiovasculares, doença coronariana, fibrilação atrial e insuficiência cardíaca), que apresentou um desempenho melhor do que os escores de risco estabelecidos, como por exemplo, MESA-CHD, AHA/ASCVD e o escore de Framingham, com maior acurácia na previsão (diminuição de 10%-25% do escore de Brier)30 , 31 .

  6. K-means : Cikes et al.,32 utilizaram um banco de dados composto por variáveis clínicas e parâmetros ecocardiográficos para os quais foram aplicados dois modelos de ML, K-means e Multiple Kernel Learning , a fim de categorizar os pacientes em grupos mutuamente exclusivos para avaliar a resposta à terapia de ressincronização cardíaca. Foram analisados 1.106 pacientes e identificados quatro grupos disjuntos, dois deles com a melhor resposta à terapia.32

  7. Artificial Neural Networks (ANN): Kwon et al.,33 em um estudo multicêntrico com 52.131 pacientes, construíram um sistema de alerta precoce baseado em aprendizado profundo capaz de prever a ocorrência de parada cardíaca em um hospital. O modelo demonstrou alto desempenho quando comparado aos sistemas tradicionais do tipo “ track-and-trigger ” (rastreamento e disparo). A área sob a curva foi de 0,82.33 Rubin et al.,34 tiveram resultados preliminares promissores com o uso de redes neurais com arquitetura convolucional para avaliar sinais eletrocardiográficos e classificá-los em fibrilação atrial, ritmo sinusal (normal) ou ruído – o escore F1 alcançado foi de 0,82.34 Zhang et al.,35 também utilizaram redes neurais convolucionais para analisar um banco de dados com 14.035 exames ecocardiográficos para detectar a presença de doenças como cardiomiopatia hipertrófica, amiloidose cardíaca e hipertensão arterial pulmonar com alto desempenho: as estatísticas C foram respectivamente de 0,93, 0,87 e 0,85.35 Nakajima et al.,36 utilizaram uma ANN para avaliar a presença de doença coronariana após a realização de cintilografia do miocárdio. Os resultados foram obtidos com alta precisão e desempenho superior aos escores tradicionais utilizados. Por exemplo, a AUC para pacientes com infarto do miocárdio antigo com base em defeitos na fase de repouso foi de 0,97.36

  8. Gradient Boosting (GB): Mortazavi et al.,37 utilizaram o GB para predizer o risco de sangramento após intervenção coronária percutânea e demonstraram que essas ferramentas podem ajudar a identificar pacientes que se beneficiariam de estratégias objetivando a redução do risco de sangramento. Foram analisados 3.316.465 procedimentos e obtida uma estatística C de 0,8237 . Hernesniemi et al.,38 também propuseram um GB para prever a mortalidade na síndrome coronariana aguda, analisando 9.066 pacientes consecutivos. A AUC foi de 0,89 e o modelo apresentou melhor desempenho do que o do escore tradicional GRACE.38

É importante observar que, ao utilizar qualquer modelo de ML, deve-se ter em mente um grande problema que pode surgir, chamado sobreajuste ( overfitting ). Ele ocorre quando um modelo descreve muito bem os exemplos (subconjunto de treinamento) e apresenta baixo desempenho quando aplicado a outras instâncias do mesmo fenômeno.39 Além disso, é importante dizer que não há resultado teórico que garanta que qualquer um dos algoritmos de IA seja melhor que os outros em qualquer aplicação.

Portanto, essa escolha depende de diversas variáveis, como a natureza do problema em análise, o tempo e os recursos disponíveis para resolvê-lo. A combinação de técnicas que geram modelos híbridos também pode ser de grande valor. Por outro lado, o uso de ferramentas para processamento paralelo, como as GPUs ( Graphic Processing Units ), tem sido de grande valia para melhorar o desempenho dos modelos de ML, principalmente em relação ao tempo computacional necessário para executá-los.

Desafios e perspectivas futuras

Como destacado anteriormente, as aplicações de IA em cardiologia aumentaram bastante nos últimos anos e seu potencial de crescimento é enorme. No entanto, esse cenário traz consigo a necessidade de superar alguns desafios, tais como: limites éticos de uso (uso indevido), aprimoramento do conhecimento matemático, aquisição de dados saudáveis, desenvolvimento de segurança, necessidade de colaboração, atenção a erros e cuidados baseados em dados. Tudo isso é discutido abaixo e está resumido na Figura 2 .

  1. Desafio 1 – limites éticos de uso (uso indevido): como toda tecnologia disruptiva, os limites da ética precisam ser repensados e amplamente discutidos. Os algoritmos de ML podem ser mal utilizados e enganosos. Como exemplo, uma obra de grande repercussão foi publicada por Wang e Kosinski (2018). Os autores usaram aprendizado profundo e obtiveram resultados expressivos para prever se um indivíduo é gay ou não em um banco de dados de imagens dos rostos dos participantes do estudo.55 De maneira similar, os mesmos algoritmos de IA podem ser utilizados para detectar, por exemplo, se um paciente desenvolverá ou não fibrilação atrial ou qualquer cardiomiopatia futura. Essas informações poderiam ser utilizadas pelas empresas para aumentar os valores de seus planos de saúde ou até mesmo negar a associação ao plano devido a um alto custo? E se for detectado que um bebê nascerá com doença cardíaca congênita devido à análise dos dados genéticos, clínico-laboratoriais e de imagem (ou outros) de seus pais? Isso poderia abrir espaço para um tipo de neoeugenia. Esse debate ganhou uma ênfase adicional com o surgimento da técnica CRISP-Cas9, que permite a edição do DNA.56 Nesse contexto, ao estimular um debate com a sociedade sobre o assunto, a transparência e a regulamentação são pilares fundamentais a serem preservados.

  2. Desafio 2 – melhorar o conhecimento de matemática: o advento desse novo tipo de ser humano inacreditável ( Homo incredibile ), que apoia suas decisões em dados, carrega consigo o papel fundamental da matemática e da computação nesta revolução atualmente em andamento. Essa revolução trará possibilidades inimagináveis na prática médica, como a construção de phenomappings de qualidade – modelos de ML desenvolvidos com o objetivo de agrupar pacientes em função de sua grande massa de características fenotípicas, a fim de facilitar o processo de tomada de decisão.57 Assim, é necessário que essas competências sejam estimuladas precocemente, principalmente com foco na solução de problemas relacionados à realidade para a qual se deseja promover melhorias. Isso certamente se refletirá na necessidade de reformular o conteúdo cardiovascular (e por que não dizer, o conteúdo médico em geral) dos cursos de graduação e pós-graduação em Medicina: uma educação passiva ou meramente expositiva, com uma carga extensa e priorizando a capacidade de memória do aluno, parece cada vez mais inadequada, pois se percebe que a Medicina deve ser um espaço de criatividade e geração de valor.

  3. Desafio 3 – obtenha dados saudáveis: o uso de dados saudáveis é de valor fundamental para o sucesso dos algoritmos. Assim, é necessário que as unidades de saúde incentivem seus profissionais de saúde a respeito do rigor no nível de preenchimento/obtenção de dados, bem como a manutenção de qualquer fonte de dados, de formulários, prontuários eletrônicos, dados de imagem ou mesmo dados não convencionais, como os obtidos por Medina et al.58 – que desenvolveram uma ferramenta de saúde de redes sociais online ( Online Social Networks Health ) bem-sucedida, na qual o próprio paciente insere anonimamente informações de monitoramento de saúde, incluindo dados fisiológicos, atividades diárias, estados emocionais e interação com outros pacientes.58 Portanto, o gerenciamento de dados se torna tão importante quanto outros comportamentos de rotina na medicina baseada em evidências, como lavagem adequada das mãos ou até o uso de um desfibrilador durante uma parada cardíaca. Dessa maneira, a formação de equipes de dados multidisciplinares e o treinamento constante das equipes assumem um papel primordial. Vale ressaltar que grande parte da lentidão e dificuldade que algumas unidades de saúde têm no uso de modelos de ML está ligada a dados saudáveis ausentes ou incipientes.

  4. Desafio 4 – obtenha segurança: o advento dessas ferramentas traz consigo uma preocupação fundamental com a segurança dos dados, a um nível nunca experimentado, pois o acesso a esses dados por pessoas não autorizadas pode levar a consequências catastróficas para as instituições de saúde e para os pacientes. A criação de uma equipe de segurança desempenha um papel importante nesse novo processo. O Regulamento Geral de Proteção de Dados ( General Data Protection Regulation ) representa um avanço nessa direção. Blockchain e suas variantes são ferramentas importantes que podem melhorar substancialmente a segurança.

  5. Desafio 5 – necessidade de colaboração (o provérbio Africano): há um provérbio africano que diz: “ se você quer ir rápido, vá sozinho, mas se quiser ir longe, vá com muitos ”. Isso se aplica muito a esse ambiente de dados: a colaboração entre instituições permite a construção de enormes bancos de dados saudáveis ( Big Data ), o que tende a favorecer o desempenho dos algoritmos de ML.

  6. Desafio 6 – lidando com erros: Uma questão importante diz respeito aos erros dos modelos de IA. É inadequado acreditar que esses modelos estão livres de erros. Por exemplo, pode ser o resultado de sobreajuste ou da ocorrência de dados não íntegros – que tornam os resultados não confiáveis. No entanto, a prática mostrou alto desempenho em várias aplicações. Esses modelos são probabilísticos e é sempre desejável que seus erros sejam mínimos. Esse cenário tem implicações clínicas, por exemplo, um modelo de IA que prevê com 99% de probabilidade que um paciente tem maior propensão do que a população em geral a ter miocardite cardíaca ou amiloidose. Há uma probabilidade, embora pequena, de que isso não ocorra e de que o procedimento adotado pelo cardiologista seja inadequado. Nesse caso, a questão é quem pode ser responsabilizado nesses casos? É apropriado? O paciente deve assinar um termo de consentimento nesses casos? Certamente, a solução inclui uma regulamentação robusta do uso dessas ferramentas e o fortalecimento de um novo tipo de relacionamento: médico-paciente-dados.

  7. Desafio 7 – gestão de cuidados baseados em dados: enquanto as ferramentas de ML seguem um caminho inexorável, por outro lado, vários profissionais de saúde continuam com medo dessas ferramentas devido a sua possível capacidade de substituir os médicos em suas tarefas. Entretanto, quando a história da Medicina é lembrada, vale ressaltar, por exemplo, que o aparecimento de máquinas automatizadas para realizar o hemograma não substituiu o hematologista, mas resultou em uma maior velocidade do processo de trabalho e permitiu ao profissional atuar em outras questões importantes da especialidade. A ideia central é fornecer melhor suporte para a tomada de decisão, incluindo melhor desempenho. Trata-se da gestão assistencial baseada em dados, com alto dinamismo e atualização constante – o que promoverá maior personalização do cuidado59 e avaliação em tempo real da experiência dos usuários do sistema de saúde, visando gerar valor para o paciente. Nesse contexto, as tarefas mecânicas serão substituíveis e uma diversidade de novas tarefas será incluída na rotina do cardiologista de precisão, desde a construção adequada das bases de dados até a reflexão crítica sobre os resultados obtidos pelos modelos matemático-computacionais, bem como o desenvolvimento de um relacionamento médico-paciente-dados adequado. Portanto, há uma migração de habilidades humanas, bem como a expansão de suas capacidades a partir do surgimento de novas ferramentas, que devem fazer parte do arsenal técnico do cardiologista do século XXI. Esse panorama nos permite comparar os modelos de ML a um cavalo e os médicos a jóqueis: “ quem corre é o cavalo, você precisa ser o jóquei ”.

Conclusões

A IA, de fato, tem se mostrado uma ferramenta fundamental para a prática clínica da cardiologia atual. Diversas aplicações foram realizadas com sucesso e permitiram melhorias significativas do ponto de vista diagnóstico e terapêutico e em relação ao atendimento personalizado. Para poder utilizar tais ferramentas, é imperativo que dados saudáveis sejam utilizados, o que certamente implica um novo design no modus operandi de muitos serviços de saúde. A natureza desses dados é variada e inclui novas fontes, como dispositivos “vestíveis” e dados omic . Por outro lado, esse novo ecossistema digital requer uma aquisição de conhecimento que não é tradicionalmente encontrado em cursos regulares de medicina. Portanto, um redesenho curricular é necessário e deve ser objeto de um profundo debate e ações específicas.

Por outro lado, toda a panaceia trazida pela IA não está isenta de desafios, como os limites éticos de seu uso, a necessidade de aprimorar o conhecimento matemático, a construção de um ecossistema que garanta altos níveis de segurança e confidencialidade para os pacientes, a aquisição de dados saudáveis, as necessidades de expandir a associação médico-paciente-dados, a necessidade de colaboração e o gerenciamento de cuidados baseados em dados. Nesse contexto, o cardiologista-jóquei (ou médicos em geral) deve ser protagonista das mudanças e deve substituir um eventual medo das ferramentas por um maior envolvimento, com o objetivo de gerar valor para o cuidado. É importante ter em mente os possíveis desafios e obstáculos a serem superados e manter um engajamento e senso crítico na busca de soluções: “quem corre é o cavalo, você precisa ser o jóquei”.

Vinculação acadêmica

Este artigo é parte de tese de Doutorado de Erito Marques de Souza Filho pela Universidade Federal Fluminense.

Aprovação ética e consentimento informado

Este artigo não contém estudos com humanos ou animais realizados por nenhum dos autores.

Fontes de financiamento

O presente estudo não teve fontes de financiamento externas.

Referências

  • 1.Goodfellow I, Bengio Y, Courville A. Deep Learning. Cambridge: MIT Press; 2016. [Google Scholar]
  • 2.Dilsizian SE, Siegel EL. Artificial intelligence in medicine and cardiac imaging: harnessing big data and advanced computing to provide personalized medical diagnosis and treatment. 441Curr Cardiol Rep. 2014;16(1) doi: 10.1007/s11886-013-0441-8. [DOI] [PubMed] [Google Scholar]
  • 3.Michel JB, Sangha DM, Erwin JP., 3rd Burnout among cardiologists. Am J Cardiol. 2017;119(6):938–940. doi: 10.1016/j.amjcard.2016.11.052. [DOI] [PubMed] [Google Scholar]
  • 4.Rotenstein LS, Torre M, Ramos MA, Rosales RC, Guille C, Sen S, et al. Prevalence of burnout among physicians: a systematic review. JAMA. 2018;320(11):1131–1150. doi: 10.1001/jama.2018.12777. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 5.Macary MA, Daniel M. Medical error – the third leading cause of death in the US. i2139BMJ. 2016 May 3;353 doi: 10.1136/bmj.i2139. [DOI] [PubMed] [Google Scholar]
  • 6.Porter ME. A strategy for health care reform – toward a value-based system. N Engl J Med. 2009;361(2):109–112. doi: 10.1056/NEJMp0904131. [DOI] [PubMed] [Google Scholar]
  • 7.Dilsizian ME, Siegel EL. Machine meets biology: a primer on artificial intelligence in cardiology and cardiac imaging. 139Curr Cardiol Rep. 2018;20(12) doi: 10.1007/s11886-018-1074-8. [DOI] [PubMed] [Google Scholar]
  • 8.Johnson KW, Soto JT, Glicksberg BS, Shameer K, Miotto R, Ali M, et al. Artificial Intelligence in Cardiology. J Am Coll Cardiol. 2018;71(23):2668–2679. doi: 10.1016/j.jacc.2018.03.521. [DOI] [PubMed] [Google Scholar]
  • 9.Krittanawong C, Zhang H, Wang Z, Aydar M, Kitai T. Artificial intelligence in precision cardiovascular medicine. J Am Coll Cardiol. 2017;69(21):2657–2664. doi: 10.1016/j.jacc.2017.03.571. [DOI] [PubMed] [Google Scholar]
  • 10.Massalha S, Clarkin O, Thornhill R, Wells G, Chow BJW. Decision support tools, systems, and artificial intelligence in cardiac imaging. Can J Cardiol. 2018;34(7):827–838. doi: 10.1016/j.cjca.2018.04.032. [DOI] [PubMed] [Google Scholar]
  • 11.Mesquita CT. Artificial intelligence and machine learning in cardiology – a change of paradigm. Int. J. Cardiovasc. Sci. 2017;30(3):187–188. [Google Scholar]
  • 12.Moore J. The Dartmouth College Artificial Intelligence Conference: The Next Fifty Years. AI Magazine. 2006;27(4):87–91. [Google Scholar]
  • 13.Turing AM. Computing machinery and intelligence. Mind. 1950;59(236):433–460. [Google Scholar]
  • 14.Price WN. Big data and black-box medical algorithms. Sci Transl Med. 2018;10(471) doi: 10.1126/scitranslmed.aao5333. pi:eaao5333. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 15.Antman EM, Loscalzo J. Precision medicine in cardiology. Nat Rev Cardiol. 2016;13(10):591–602. doi: 10.1038/nrcardio.2016.101. [DOI] [PubMed] [Google Scholar]
  • 16.Price WN II. Black Box medicine. Harvard J Law Tech. 2015;28(2):419–467. [Google Scholar]
  • 17.Dey D, Slomka PJ, Leeson P, Comaniciu D, Shrestha S, Sengupta PP, et al. Artificial intelligence in cardiovascular imaging: JACC State-of-the-Art review. J Am Coll Cardiol. 2019;73(11):1317–1335. doi: 10.1016/j.jacc.2018.12.054. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 18.Shameer K, Johnson KW, Glicksberg BS, Dudley JT, Sengupta PP. Machine learning in cardiovascular medicine: are we there yet? Heart. 2018;104(14):1156–1164. doi: 10.1136/heartjnl-2017-311198. [DOI] [PubMed] [Google Scholar]
  • 19.Al’Aref SJ, Anchouche K, Singh G, Slomka PJ, Kolli KK, Kumar A, et al. Clinical applications of machine learning in cardiovascular disease and its relevance to cardiac imaging. Eur Heart J. 2018;40(24):1975–1986. doi: 10.1093/eurheartj/ehy404. [DOI] [PubMed] [Google Scholar]
  • 20.Somashekhar SP, Sepulveda MJ, Puglielli S, Norden AD, Shortliffe EH, Rohit Kumar C, et al. Watson for Oncology and breast cancer treatment recommendations: agreement with an expert multidisciplinary tumor board. Ann Oncol. 2018;29(2):418–423. doi: 10.1093/annonc/mdx781. [DOI] [PubMed] [Google Scholar]
  • 21.IBM . Watson. New York: IBM; 2019. [Cited in 2018 Oct 10]. https://www.ibm.com/watson/index.html . [Google Scholar]
  • 22.Samad MD, Wehner GJ, Arbabshirani MR, Jing L, Powell AJ, Geva T, et al. Predicting deterioration of ventricular function in patients with repaired tetralogy of Fallot using machine learning. Eur Heart J Cardiovasc Imaging. 2018;19(7):730–738. doi: 10.1093/ehjci/jey003. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 23.Berikol GB, Yildiz O, Özcan IT. Diagnosis of acute coronary syndrome with a support vector machine. 84J Med Syst. 2016;40(4) doi: 10.1007/s10916-016-0432-6. [DOI] [PubMed] [Google Scholar]
  • 24.Betancur J, Rubeaux M, Fuchs TA, Otaki Y, Arnson Y, Slipczuk L, et al. Automatic valve plane localization in myocardial perfusion SPECT/CT by machine learning: Anatomic and clinical validation. J Nucl Med. 2016;58(6):961–967. doi: 10.2967/jnumed.116.179911. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 25.Paredes S, Rocha T, Carvalho P, Henriques J, Morais J, Ferreira J. Integration of different risk assessment tools to improve stratification of patients with coronary artery disease. Med Biol Eng Comput. 2015;53(10):1069–1083. doi: 10.1007/s11517-015-1342-3. [DOI] [PubMed] [Google Scholar]
  • 26.Al-Mallah MH, Elshawi R, Ahmed AM, Qureshi WT, Brawner CA, Blaha MJ, et al. Using machine learning to the association between cardiorespiratory fitness and all-cause mortality (from the Henry Ford Exercise Testing Project) Am J Cardiol. 2017;120(11):2078–2084. doi: 10.1016/j.amjcard.2017.08.029. [DOI] [PubMed] [Google Scholar]
  • 27.Smisek R, Hejc J, Ronzhina M, Nemcova A, Marsanova L, Kolarova J, et al. Multi-stage SVM approach for cardiac arrhythmias detection in short single-lead ECG recorded by a wearable device. 094003Physiol Meas. 2018;39(9) doi: 10.1088/1361-6579/aad9e7. [DOI] [PubMed] [Google Scholar]
  • 28.Stuckey TD, Gammon RS, Goswami R, Depta JP, Steuter JA, Meine FJ, 3rd, et al. Cardiac phase space tomography: a novel method of assessing coronary artery disease utilizing machine learning. PLoS One. 2018;13(8):e0198603. doi: 10.1371/journal.pone.0198603. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 29.Samad MD, Ulloa A, Wehner GJ, Jing L, Hartzel D, Good CW, et al. Predicting survival from large echocardiography and electronic health record datasets: optimization with machine learning. JACC Cardiovasc Imaging. 2019;12(4):681–689. doi: 10.1016/j.jcmg.2018.04.026. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 30.Ambale-Venkatesh B, Yang X, Wu CO, Liu K, Hundley WG, McClelland R, et al. Cardiovascular event prediction by machine learning: the multi-ethnic study of atherosclerosis. Circ Res. 2017;121(9):1092–1101. doi: 10.1161/CIRCRESAHA.117.311312. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 31.Ishwaran H, Kogalur UB, Blackstone EH, Lauer MS. Random survival forests. Ann Appl Stat. 2008;2(3):841–860. [Google Scholar]
  • 32.Cikes M, Sanchez-Martinez S, Claggett B, Duchateau N, Piella G, Butakoff C, et al. Machine learning-based phenogrouping in heart failure to identify responders to cardiac resynchronization therapy. Eur J Heart Fail. 2019;21(1):74–85. doi: 10.1002/ejhf.1333. [DOI] [PubMed] [Google Scholar]
  • 33.Kwon JM, Lee Y, Lee Y, Lee S, Park J. 2018;7(13) doi: 10.1161/JAHA.118.008678. pii: e008678. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 34.Rubin J, Parvaneh S, Rahman A, Conroy B, Babaeizadeh S. Densely connected convolutional networks for detection of atrial fibrillation from short single-lead ECG recordings. J Electrocardiol. 2018;51(6S):S18–S21. doi: 10.1016/j.jelectrocard.2018.08.008. [DOI] [PubMed] [Google Scholar]
  • 35.Zhang J, Gajjala S, Agrawal P, Tison GH, Hallock LA, Beussink-Nelson L, et al. Fully automated echocardiogram interpretation in clinical practice. Circulation. 2018;138(16):1623–1635. doi: 10.1161/CIRCULATIONAHA.118.034338. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 36.Nakajima K, Kudo T, Nakata T, Kiso K, Kasai T, Taniguchi Y, et al. Diagnostic accuracy of an artificial neural network compared with statistical quantitation of myocardial perfusion images: a Japanese multicenter study. Eur J Nucl Med Mol Imaging. 2017;44(13):2280–2289. doi: 10.1007/s00259-017-3834-x. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 37.Mortazavi BJ, Bucholz EM, Desai NR, Huang C, Curtis JP, Masoudi FA, et al. Comparison of machine learning methods with national cardiovascular data registry models for prediction of risk of bleeding after percutaneous coronary intervention. JAMA Netw Open. 2019;2(7):e196835. doi: 10.1001/jamanetworkopen.2019.6835. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 38.Hernesniemi JA, Mahdiani S, Tynkkynen JA, Lyytikäinen LP, Mishra PP, Lehtimäki T, et al. Extensive phenotype data and machine learning in prediction of mortality in acute coronary syndrome - the MADDEC study. Ann Med. 2019;51(2):156–163. doi: 10.1080/07853890.2019.1596302. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 39.Nannen V. The Paradox of Overfitting Volker Nannen. Países Baixos: Faculty of Artificial Intelligence at the University of Groningen; 2003. thesis. [Google Scholar]
  • 40.Cortes C, Vapnik V. Support-vector networks. Mach Learn. 1995;20:273–297. [Google Scholar]
  • 41.Bayes T. An essay towards solving a problem in the doctrine of chances. By the late Rev. Mr. Bayes, F. R. S. communicated by Mr. Price, in a letter to John Canton, A. M. F. R. S. Philos Trans R Soc Lond. 1763;53:370–418. [Google Scholar]
  • 42.Webb GI, Boughton JR, Wang Z. Not so naive bayes: aggregating one-dependence estimators. Mach Learn. 2005;58(1):5–24. [Google Scholar]
  • 43.Watkins DS. Fundamentals of matrix computations. 2th. New York: Wiley-Interscience; 2002. [Google Scholar]
  • 44.Cover T, Hart P. Nearest neighbor pattern classification. IEEE Trans Inf Theory. 1967;13(1):21–27. 1967. [Google Scholar]
  • 45.Fix E., Hodges J.L. Discriminatory analysis, nonparametric discrimination: Consistency properties. Technical Report 4, USAF School of Aviation Medicine. Randolph Field; Texas: 1951. [Google Scholar]
  • 46.Holland JH. Adaptation in natural and artificial systems. 2th. Cambridge, MA: MIT Press; 1992. [Google Scholar]
  • 47.Breiman L. Random forests. Mach Learn. 2001;45(1):5–32. [Google Scholar]
  • 48.Ho TK. Random decision forests; 3rd International Conference on Document Analysis and Recognition; 1995 Aug 14-16; Montreal. Washington, DC: IEEE Computer Society; 1995. pp. 278–282. Proceedings of the. [Google Scholar]
  • 49.MacQueen JB. Some Methods for classification and Analysis of Multivariate Observations. Proc. Fifth Berkeley Symp. on Math. Statist. and Prob. 1967;1:281–297. [Google Scholar]
  • 50.McCulloch WS, Pitts W. A logical calculus of ideas immanent in nervous activity. Bull Math Biophys. 1943;5(4):115–133. [PubMed] [Google Scholar]
  • 51.Rosenblatt F. The perceptron: a probabilistic model for information storage and organization in the brain. Psychol Rev. 1958;65(6):386–408. doi: 10.1037/h0042519. [DOI] [PubMed] [Google Scholar]
  • 52.Broomhead DS, Lowe D. Multivariable functional interpolation and adaptive networks. Complex Syst. 1988;2:321–355. [Google Scholar]
  • 53.Friedman JH. Greedy function approximation: a gradient boosting machine. Ann Stat. 2001;29(5):1189–1232. [Google Scholar]
  • 54.Friedman JH. Stochastic gradient boosting. Comput. Stat. Data Anal. 2002;38(4):367–378. [Google Scholar]
  • 55.Wang Y, Kosinski M. Deep neural networks are more accurate than humans at detecting sexual orientation from facial images. J Pers Soc Psychol. 2018;114(2):246–257. doi: 10.1037/pspa0000098. [DOI] [PubMed] [Google Scholar]
  • 56.Ma H, Marti-Gutierrez N, Park SW, Wu J, Lee Y, Suzuki K, et al. Correction of a pathogenic gene mutation in human embryos. Nature. 2017;548(7668):413–419. doi: 10.1038/nature23305. [DOI] [PubMed] [Google Scholar]
  • 57.Shah SJ, Katz DH, Deo RC. Phenotypic spectrum of heart failure with preserved ejection fraction. Heart Fail Clin. 2014;10(3):407–418. doi: 10.1016/j.hfc.2014.04.008. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 58.Medina EL, Mesquita CT, Loques O., Filho Healthcare social networks for patients with cardiovascular diseases and recommendation systems. Int J Cardiovasc Sci. 2016;29(1):80–85. [Google Scholar]
  • 59.Bittencourt MS. From evidence-based medicine to precision health: using data to personalize care. Arq Bras Cardiol. 2018;111(6):762–763. doi: 10.5935/abc.20180240. [DOI] [PMC free article] [PubMed] [Google Scholar]
Arq Bras Cardiol. 2020 May 12;114(4):718–725. [Article in English]

Artificial Intelligence in Cardiology: Concepts, Tools and Challenges - “The Horse is the One Who Runs, You Must Be the Jockey”

Erito Marques de Souza Filho 1,2, Fernando de Amorim Fernandes 1, Celine Lacerda de Abreu Soares 1, Flavio Luiz Seixas 1, Alair Augusto Sarmet MD dos Santos 1, Ronaldo Altenburg Gismondi 1, Evandro Tinoco Mesquita 1, Claudio Tinoco Mesquita 1

Abstract

The recent advances at hardware level and the increasing requirement of personalization of care associated with the urgent needs of value creation for the patients has helped Artificial Intelligence (AI) to promote a significant paradigm shift in the most diverse areas of medical knowledge, particularly in Cardiology, for its ability to support decision-making and improve diagnostic and prognostic performance. In this context, the present work does a non-systematic review of the main papers published on AI in Cardiology, focusing on its main applications, potential impacts and challenges.

Keywords: Artificial Intelligence/trends, Computer Systems/trends, Machine Learning/trends, Cardiovascular Diseases, Clinical Decision-Making

Introduction

A person’s everyday life necessitates a huge amount of knowledge about the world and the volume of data in health grows exponentially throughout the world.1 On the other hand, biomedical knowledge is always expanding in an active and dynamic way and cannot be processed or stored by a single human brain. This situation makes it very difficult for the contemporary physician to keep up-to-date with such a broad spectrum of new data and findings, as well as to use such information easily and in a timely manner.2 Adding to this framework are the significant burnout rates among health professionals3 , 4 and the important impact of medical errors - which in the United States represent the third leading cause of death.5 This panorama brings with it the need to reorganize the productive structure of health services, associated with various challenges and new perspectives. Given that the current health system is generally unproductive and/or expensive, it is imperative to develop alternative and innovative strategies. The central focus for achieving this goal should be to increase the value for the patient – outcomes reached per dollar spent – so that good outcomes, efficiently obtained, are a target to be pursued.6

Besides, the recent advances at hardware level related to parallel processing, the existence of several machine-learning methods and the huge amount of annotated data contributed for artificial intelligence (AI) to promote a significant paradigm shift in the most diverse areas of medical knowledge and, particularly in Cardiology, for its ability to support decision-making that can improve diagnostic and prognostic performance. These impacts ought to be evaluated from the perspective of patient safety, personalization of care, value creation for the patients, within a scope of technological surveillance – that gradually consolidates AI as fundamental for a medical practice of excellence.7 - 11

This scenario makes AI, given its importance, be considered by many as the new electricity. The main journals in cardiology have published reviews in this area and the number of articles on the subject follows a growing trend, as shown in Figure 1 – this behavior is also seen in other medical specialties, such as Neurology. Therefore, the present work performs a non-systematic review of the main papers published on AI in Cardiology, focusing on its main applications, potential impacts and challenges. The next section presents the conceptual fundamentals on the topic, followed by a discussion on why cardiology needs AI and its main tools. Finally, the main challenges, perspectives and conclusions are presented.

Figure 1. – Evolution of the number of works relating (Artificial Intelligence or Machine Learning) and Cardiology. Source: Pubmed. Accessed on 12/15/2018. Mesh Words: Cardiology and Machine Learning.

Figure 1

What is artificial intelligence?

The term AI was used for the first time at the Dartmouth Conference in 1956.12 Nevertheless, the possibility of machines being able to simulate human behavior and actually think was raised earlier by Alan Turing in 1950, who developed a test in order to differentiate humans from machines – thus named Turing test.13

Basically, AI is the product of the combination of sophisticated mathematical models and computation, which allows the development of complex algorithms capable of emulating human intelligence. All this process starts with the construction of a database representative of the problem that one wishes to study – adequately collected and processed– called healthy data. This step is of fundamental importance, as the algorithms will probably not perform well if this prerequisite is not obtained: " garbage in, garbage out ".

The nature of these data is quite varied, ranging from socio-environmental, clinical-laboratory, omic-data (e.g., metabolome, proteome, epigenome, lipidome) to information on red, green and blue intensities (RGB system) of each pixel that composes an image, for example. Equally diversified sources of such data include those obtained from electronic medical records or even wearable devices. In this context, the term Big Data is used to describe a huge collection of data for which traditional methods of analysis are unsuccessful in analyzing, searching, interpreting and storing.9

We highlight the use of these tools in problems of classification, regression, and clusterization. After obtaining healthy data and building the database, it is important to evaluate which mathematical models of AI are most appropriate for the problem that one wishes to solve. Then, the chosen models must be implemented using some programming language. A combination of models can also be useful. The results obtained by the algorithm should be analyzed in terms of both the coherence and suitability. These steps are summarized in Figure 2 .

Figure 2. – Main Illustration.

Figure 2

Why does cardiology need artificial intelligence?

The development of AI algorithms has the advantage of not requiring many assumptions in relation to underlying data.8 Another point is that the nature of these mathematical-computational models allows, from observational data, a high level of evidence due to its high performance, which certainly represents a significant paradigm shift in evidence-based medicine. It should be noted that traditional clinical trials are generally slow, expensive, time-consuming, and limited in size.14 In addition, when the database is fed with more (healthy) data, in general, there is an improvement in the performance of the algorithms – which allows the studies to have a continuous character over time.

This new archetype can guide the allocation of scarce resources in the health area and facilitate the efficient and accurate identification of decisions that favor the individualization of care based on the flow of information that emerge from an integrated and complex ecosystem: it is a precision medicine.15 , 16 Therefore, it can be inferred that the practice of the cardiovascular sciences will have significant impacts, which will translate into a personalized approach and improved outcomes.

Basic concepts in artificial intelligence

A generic database can be arranged in a matrix of rows and columns. Each line denotes an element from a set of objects to be evaluated according to the same features. Each column, in turn, expresses the values of a given attribute for the various rows in the database and each line represents a lesson to be learned by the mathematical-computational model. In this way, the term Machine Learning (ML) brings with it a possibility of " learning " from a set of lessons. The term AI is often used interchangeably with the term ML. However, ML is a subset of AI algorithms related the ability of learn from a large amount of data. AI is wider and encompass performing tasks that are normally related to human intelligence such as pattern recognition, problem solving, understanding language or recognizing objects and sounds.17

It is often said that the types of learning can be:

  1. Supervised: when the algorithm receives information about each lesson as well as the labels associated with it, having an important role in relation to the prediction. For example, if it is desired to predict whether a patient is more susceptible to cough with the use of angiotensin-converting enzyme inhibitors, analysis should be performed based on a healthy database containing a group of patients that showed such a reaction and another group in which this fact was not observed.

  2. Unsupervised: when the lesson labels are not provided a priori , it is up to the algorithm to find hidden structures in the database. A hypothetical example is the clusterization of a database of patients with hypertrophic cardiomyopathy according to imaging findings.

  3. Reinforcement: inspired by behavioral biology, it is a kind of reward-based learning.18 , 19

Another important concept is that of cognitive computing. It can be understood as a set of self-learning systems intended to imitate the human thought process based on the use of ML tools, pattern recognition and natural language processing.9 IBM Watson is an example of cognitive computing in the medical field.20 , 21

Some artificial intelligence tools and applications

Currently, there is a multiplicity of models of ML each of them with diverse particularities, varied uses and limitations. The applications of some of these models in Cardiology are explained in the following paragraphs, while a brief description of each of them and their type is shown in Table 1 .

Table 1. – Brief description and classification of the main ML tools.

Tool Description Learning
SVM It is useful for two-group classification problems. The idea is to find a function called hyperplane from the resolution of a linear system built from the various lessons of the training subset. 40 This hyperplane is used to cluster the lessons of the test subset into two disjoint groups. Supervised
NB It was inspired in the studies of the reverend Bayes on conditional probability. 41 These probabilities are used to identify the category (out of a total n possible) that a particular lesson belongs to. 42 Supervised
KNN It is said that a vector norm is a mathematical function, which satisfies specific properties, and associates a vector with a value greater than or equal to zero. 43 The norm of the difference between two vectors is the distance between them. The KNN uses a norm to calculate the distance between all the vectors (lessons) that make up the database. Then, for each vector of the database, the k vectors closest to it are determined. The inclusion in a given group is obtained from a majority voting system among the neighbors. 44,45 Supervised
AG Algorithms inspired by the biological evolution of species, in which each possible candidate to solve the problem is modeled as a chromosome consisting of a set of genes, which during the execution of the algorithm undergoes operations of crossing-over and mutation in order to obtain better solutions than the current ones. 46 This way, they allow a database to be separated, for example, into two distinct groups – which have or do not have a particular characteristic. Supervised
RF This method is based on the construction of several decision trees. The first step is to get several random samples (with reposition) of lessons to build other databases, a process that is called bootstrapping. Each of these new databases will give rise to a decision tree, which is obtained iteratively, from a subset of variables (features). After the construction of all trees, a new lesson in the database should be allocated to the group that has the largest number of decision trees, showing that it belongs to this group (majority of votes). 47,48 Supervised
K-means It allows partitioning a database into k groups with similar characteristics. To do so, it is necessary to update, in an iterative way, a set of vectors, called reference centroids of each group and to calculate the distance of each lesson to each one. A lesson is always allocated to the centroid for which it has the shortest distance. The elbow chart is generally used to determine the ideal number of groups to separate from the database. 49 Unsupervised
ANN Inspired in biological nerve systems, a structure called a graph - a set of nodes and edges - is used in which nodes are layered and connected by valued edges, which represent a weight assigned to a given connection. The idea is that from a set of inputs, these weights are used properly to produce an output. Several architectures have been proposed for neural networks, from simpler ones such as the perceptron, to more sophisticated ones, such as the radial basis function, convolutional networks and deep learning. In deep learning, in addition to the input and output layers, there are hidden layers that increase significantly the number of weights to be updated and often require huge computational efforts. Convolutional network is a type of deep leaning inspired in visual cortex of animals that have an important role in image analysis. Autoencoders and Kohonen neural networks are examples of unsupervised learning. 1,7,50-52 Unsupervised or Supervised
GB It is a tree-based method that uses gradient, vectors related to the direction of maximum increase in a math function, to produce sequential decision trees to be combined to brush up on the prediction. Variants of this approach include Stochastic Gradient Descent that incorporates a random subsampling to GB. 53,54 Supervised
  1. Support Vector Machine (SVM): used by Samad et al.,22 to predict with success the deterioration of ventricular function in patients with repaired tetralogy of Fallot from a database of 153 patients with clinical, electrocardiographic and cardiac magnetic resonance imaging data. In relation to predicting any deterioration (minor or major) vs. no deterioration, the mean area under the curve (AUC) was 0.82 ± 0.06.22 Berikol et al.23 used clinical, laboratory (troponin I and CK-MB levels), ECG, and echocardiographic data from 228 patients who presented at the emergency department with chest pain for classification regarding the presence or absence of Acute Coronary Syndrome. Accuracy, sensitivity and specificity were, respectively, 99.19, 98.22 and 100%.23 Betancur et al.24 also used SVM to more precisely define mitral valve plane (VP) positioning during left ventricular segmentation in Single-Photon Emission Computed Tomography (SPECT) exams. Images of 392 patients were analyzed and the good results obtained were compatible with the opinion of experts in the area – AUC: 0.82 [0.74-0.9] for regional detection of obstructive stenosis and ischemic total perfusion deficit areas.24

  2. Naive Bayes (NB): Paredes et al.,25 used an NB fusion and genetic algorithm to predict the risk of occurrence of cardiovascular events (e.g., hospitalization or death) based on data from 559 Acute Coronary Syndrome-Non-ST Segment Myocardial Infarction (ACS-NSTEMI) patients. Sensitivity and specificity were, respectively, 79.8, 83.8.25

  3. K-nearest neighbors (KNN): Al-Mallah et al.26 compared the prediction of all-cause mortality in 10 years between the classical logistic regression model and the KNN, considering a database of 34,212 patients with clinical information and information obtained after the treadmill test using the standard protocol of Bruce.26 The results obtained by this ML tool showed a sensitivity of 87.4% and specificity of 97.2%, better than the predictive performance of the traditional Atherosclerosis Cardiovascular Disease Risk Score (ASCVD).

  4. Genetic algorithms (GA): Smisek et al.27 developed a wearable device to detect arrhythmias from the information record of a single-lead electrocardiogram. The data were analyzed from a combination of the (SVM), decision tree and threshold-based rules. Genetic algorithms were used to select the most appropriate characteristics to be used in the work. In relation to the detection of atrial fibrillation, an F1 score (harmonic mean of positive predictive value and sensitivity) of 0.81 was obtained.27 Stuckey et al.,28 used the Cardiac Phase Space Tomography Analysis - a pioneering method that dispenses with the use of radiation and contrast, as well as performing exercises or pharmacological stress - combined with ML models (e.g., genetic algorithms) to analyze the thoracic phase signals. In this study, the authors used this tool to evaluate patients with coronary disease and chest pain who were referred by the physician for angiography. 606 patients were studied, and the results showed sensitivity of 92%, specificity of 62% and predictive value of 96% for coronary disease.28

  5. Random Forests (RF): Samad et al.,29 analyzed a database consisting of clinical and electrocardiographic variables to evaluate survival in 10 different periods of time (ranging from 6 to 60 months), considering a total of 171,510 patients. RF was used, with excellent results, better than those obtained through traditional scores such as the Framingham risk score and ACC/AHA guideline score. The area under the curve (AUC) was superior to 0.82.29 Ambale-Venkatesh et al.30 used information from noninvasive tests, questionnaires, biomarkers and imaging tests from 6,814 patients to construct 739 variables (features) in order to apply a variant of RF – called survivor random forests31 – for predicting cardiovascular events (all-cause death, stroke, all cardiovascular disease, coronary heart disease, atrial fibrillation and heart failure), having performed better than established risk scores, e.g., MESA-CHD, AHA/ASCVD and Framingham, with increased prediction accuracy (decreased Brier score by 10%-25%).30 , 31

  6. K-means: Cikes et al.32 used a database consisting of clinical variables and echocardiographic parameters for which two models of ML, Kmeans and Multiple Kernel Learning were applied, in order to categorize the patients into mutually exclusive groups to evaluate the response to resynchronization therapy cardiac. A total of 1,106 patients were analyzed and four disjoint groups were identified, two of them with the best response to therapy.32

  7. Artificial Neural Networks (ANN): Kwon et al.,33 in a multicenter study of 52,131 patients, constructed a deep learning-based early warning system capable of predicting the occurrence of cardiac arrest in a hospital. The model showed high performance when compared to traditional track-and-trigger systems. The area under the curve was 0.82.33 Rubin et al.,34 had promising preliminary results with the use of neural networks with convolutional architecture to evaluate electrocardiographic signs and to classify them in atrial fibrillation, sinus rhythm (normal) or noise – the F1 score achieved was 0.82.34 Zhang et al.35 also used convolutional neural networks to analyze a database with 14,035 echocardiographic exams to detect the presence of diseases such as hypertrophic cardiomyopathy, cardiac amyloidosis and pulmonary arterial hypertension with a high performance: C statistics were respectively, 0.93, 0.87, and 0.85.35 Nakajima et al.36 used an ANN to evaluate the presence of coronary disease after performing myocardial scintigraphy. Results were obtained with high accuracy and superior performance to the traditional scores used. For example, the AUC for patients with old myocardial infarction based on defects in rest stage was 0.97.36

  8. Gradient Boosting (GB): Mortazavi et al.37 used GB for prediction of risk of bleeding after percutaneous coronary intervention and demonstrated that these tools can help to identify patients who would benefit from strategies aiming to reduce the bleeding risk. A total of 3,316,465 procedures were analyzed and a C statistic of 0.82 was obtained.37 Hernesniemi et al.,38 also proposed a GB to predict mortality in acute coronary syndrome, analyzing 9,066 consecutive patients. The AUC was 0.89 and the model performed better than GRACE traditional score.38

It is important to note that when using any ML model, one should keep in mind a major problem that may arise, called overfitting. It occurs when a model describes the examples very well (training subset) and performs poorly when applied to other instances of the same phenomenon.39 In addition, it is worth saying that there is no theoretical result that ensures that any of the AI algorithms is better than the others in any application. Thus, this choice depends on several variables, such as the nature of the problem under analysis, the time and resources available to solve the problem. The combination of techniques generating hybrid models can also be of great value. On the other hand, the use of tools for parallel processing, such as the Graphic Processing Unit (GPU), has been of great value in improving the performance of ML models, especially in relation to computational time needed to run them.

Challenges and future prospects

As previously highlighted, AI applications in cardiology have increased greatly in recent years and their growth potential is enormous. However, this scenario brings with it the need to overcome some challenges, such as: ethical limits of use (misuse), improvement of mathematical knowledge, acquisition of healthy data, development of security, need for collaboration, attention to errors and data-based care. All of this is discussed below and is summarized in Figure 2 .

  1. Challenge 1 – ethical limits of use (misuse): like all disruptive technology, the limits of ethics need to be rethought and widely discussed. ML algorithms can be misused and misleading. As an example, a work of great repercussion was published by Wang and Kosinski (2018). The authors used deep learning and obtained expressive results in the prediction of whether an individual is gay or not from a database of images of the study participants’ faces.55 Similarly, the same AI algorithms can be used to detect, for example, whether or not a patient will develop atrial fibrillation or any future cardiomyopathy. Could this information be used by companies to increase the amounts of their health plans or even deny membership to the plan due to a high cost? What if it is detected that a baby will be born with congenital heart disease due to the analysis of the genetic, clinical-laboratory and image (or other) data of its parents? This could open space for a kind of neoeugenia. This debate has gained an additional emphasis with the emergence of the CRISP-Cas9 technique, which allows DNA editing.56 In this context, by stimulating a debate with society on the subject, transparency and regulation are fundamental pillars to be preserved.

  2. Challenge 2 improve math knowledge: the advent of this new kind of unbelievable human being ( Homo incredibile ), which supports its decisions in data, carries with it the fundamental role of mathematics and computation in this currently ongoing revolution. This revolution will bring unimaginable possibilities in medical practice, such as the construction of quality phenomappings - ML models developed with the aim of clustering patients in function of their large mass of phenotypic characteristics in order to facilitate the decision-making process.57 Thus, it is necessary that these competencies are stimulated early, mainly with a focus on solving problems related to the reality for which one wishes to promote improvements. This will certainly be reflected in a need to reformulate the cardiovascular contents (and why not say, medical content in general) of undergraduate and postgraduate courses in Medicine: a passive or merely expositive education, with an extensive load and that prioritizes the capacity of the student's memory seems, more and more, to be inadequate, as one realizes that Medicine must be a space for creativity and value generation.

  3. Challenge 3 – get healthy data: the use of healthy data is of fundamental value for the success of the algorithms. Thus, it is required that health units encourage their health professionals regarding the thoroughness at the level of data filling/obtaining as well as maintaining any data sources, from forms, electronic medical records, image data or even unconventional data, such as those obtained by Medina et al.58 - who developed a successful Online Social Networks Health tool in which the patient himself anonymously inserts health monitoring information, including physiological data, daily activities, emotional states, and interaction with others patients.58 Therefore, data management becomes as important as other routine behaviors in evidence-based medicine, such as proper handwashing or even the use of a defibrillator during cardiac arrest. In this way, the formation of multidisciplinary data teams and the constant training of the teams assume a primordial role. It is noteworthy that much of the slowness and difficulty that some health units have in using ML models is tied to absent or incipient healthy data.

  4. Challenge 4 – get security: the advent of these tools brings with it a fundamental concern with data security, to a level never before experienced, as access to such data by unauthorized persons can lead to catastrophic consequences for both health institutions and the patients. The creation of a security team plays an important role in this new process. The General Data Protection Regulation represents an advance in this direction. Blockchain and its variants are important tools that can improve security substantially.

  5. Challenge 5 – need for collaboration (the African proverb): there is an African proverb that says, " if you want to go fast go by yourself, but if you want to go far go with many ". This applies a lot to this data environment: collaboration between institutions allows the construction of huge healthy databases (Big Data), which tends to favor the performance of ML algorithms.

  6. Challenge 6 – dealing with errors: one important issue concerns the errors of AI models. It is inadequate to believe that such models are error-free. It may, for example, be the result of overfitting or occurring by using unhealthy data - which make the results unreliable. However, the practice has shown high performance in several applications. These models are probabilistic, and it is always desirable that their errors be minimal. This scenario has clinical implications, for example, an AI model that predicts with 99% probability that a patient has a greater propensity than the general population to have cardiac myocarditis or amyloidosis. There is a probability, although small, that this will not occur, and that the procedure adopted by the cardiologist is inadequate. In that case, the question is who can be held accountable in these cases? Is it appropriate? Should the patient sign a consent form in these cases? Certainly, the solution includes robust regulation of the use of these tools and strengthening of a new type of relationship: physician-patient-data.

  7. Challenge 7 – data-based care management: while ML's tools follow an inexorable path, on the other hand, several healthcare professionals remain fearful about these tools because of its possible ability to replace physicians in their tasks. However, when the history of Medicine is remembered, it is worth mentioning, for example, that the appearance of automated machines to perform the whole blood count did not replace the hematologist, but rather resulted in a greater speed of the work process and allowed the professional to be able to act in other important issues in the specialty.

The central idea is to provide better support for decision-making, including better performance. It is data-driven care management with a high dynamism and constant updating - which will promote greater personalization of care59 and a real-time evaluation of the experience of the health system users, aiming at generating value for the patient. In this context, the mechanical tasks will be substitutable and a diversity of new tasks will be included into the routine of the cardiologist of precision, from the adequate construction of the databases to the critical reflection on the results obtained by the mathematical-computational models, as well as the development of an adequate physician-patient-data relationship. Therefore, there is a migration of human skills as well as the expansion of their capabilities from the emergence of new tools, which should be part of the technical arsenal of the 21stcentury cardiologist. This panorama allows us to compare ML models to a horse and doctors to jockeys: " the horse is the one who runs , you must be the jockey ".

Conclusions

AI, in fact, has been shown to be a fundamental tool for the clinical practice of current cardiology. Several applications have been successfully performed and have allowed significant improvements from a diagnostic and therapeutic point of view and in relation to personalized care. To be able to use such tools, it is imperative that healthy data be used, which certainly implies a new design in the modus operandi of many health services. The nature of these data is varied and includes new sources, such as wearable devices and omic-data. On the other hand, this new digital ecosystem requires an acquisition of knowledge not traditionally found in regular medical courses. Therefore, a curricular redesign is required and ought to be object of a profound debate and specific actions.

On the other hand, the entire panacea brought by AI is not free from challenges such as: the ethics limits of its use, the necessity of improving math knowledge, the building of an ecosystem that ensure high levels of security and confidentiality for the patients, the acquisition of healthy data, the needs of expand the physician-patient-data association, the necessity of collaboration and the data-based care management. In this context, the cardiologist-jockey (or physicians in general) must be a protagonist of changes and has to replace an eventual fear of the tools by a greater involvement with the objective of generating value for the care. It is important to keep in mind possible challenges and obstacles to be overcome and to maintain an engagement and critical sense in the search for solutions: "the horse is the one who runs, you must be the jockey".

Study Association

This article is part of the thesis of Doctoral submitted by Erito Marques de Souza Filho, from Universidade Federal Fluminense.

Ethics approval and consent to participate

This article does not contain any studies with human participants or animals performed by any of the authors.

Sources of Funding

There were no external funding sources for this study.


Articles from Arquivos Brasileiros de Cardiologia are provided here courtesy of Sociedade Brasileira de Cardiologia

RESOURCES