Schlüsselwörter

5.1 Einführung

Die zunehmende Einbeziehung der Patientenbeteiligung in Diagnose und Behandlungsentscheidungen (Patienten-Empowerment) ist einer der Haupttrends in der modernen Medizin [1], unterstützt unter anderem auf der Ebene gesetzlicher Initiativen im Gesundheitssystem. Moderne Informationstechnologien sind eine Voraussetzung für die Umsetzung dieses Trends. Ein wichtiger Teil dieser Technologien ist die zunehmende Verbreitung ästhetischer, handgroßer Geräte für Elektrokardiographie-Tests, die Benutzer bis zu einem gewissen Grad selbst anwenden können, ohne Aufsicht ihres Arztes. Es ist korrekter, diese Geräte als kombinierte Software/ Hardware-Systeme zu bezeichnen, weil sie alle die entsprechende Software haben. Der Fortschritt der Mikroelektronik und die Entwicklung des Internets, insbesondere „Cloud“-Dienste, machen diese Geräte für jeden Benutzer erschwinglich und bestimmen ihren jährlichen Verkauf von Hunderttausenden (möglicherweise Millionen) Stück, und die Geräte der meisten Hersteller sind weltweit verfügbar, in jedem Land, einschließlich der Ukraine. Die Analysten von Global Industry Analyst Inc. berichten, dass der US-Markt für tragbare Elektrokardiographen allein rund 1,1 Milliarden Dollar beträgt. Das jährliche Wachstum dieses Marktes beträgt mindestens 6 % [2]. Daher wird die individuelle Nutzung tragbarer elektrokardiographischer Geräte zu einem bedeutenden sozialen Phänomen. Man kann sagen, dass mithilfe solcher Geräte ein spontanes Screening von Herzerkrankungen stattfindet, die in ihrem Umfang alle Screening-Programme mit klassischer 12-Kanal-Elektrokardiographie weit übersteigt.

Ich muss sagen, dass dieser Trend neben den offensichtlichen Vorteilen auch eine gewisse Gefahr birgt. Die Möglichkeiten der partiellen Ableitungselektrokardiographie sind natürlich im Vergleich zur klassischen Elektrokardiographie erheblich eingeschränkt, was von Benutzern, die keine professionellen medizinischen Kenntnisse haben, oft nicht erkannt wird. Dies gilt sicherlich für Screening-Möglichkeiten für verschiedene Herzkrankheiten. Es ist auch wichtig zu beachten, dass der Wert der routinemäßigen 12-Kanal-Elektrokardiographie beim Screening auf Herzerkrankungen, insbesondere bei koronaren Herzkrankheiten, d. h. ihre Fähigkeit, die Vorhersagegenauigkeit gegenüber traditionellen Risikofaktoren zu erhöhen, derzeit intensiv diskutiert wird. Besondere Aufmerksamkeit wird in diesem Zusammenhang der Verwendung von künstlicher Intelligenz (KI) für die Analyse des Elektrokardiogramms (EKG) gewidmet. Eines der Hauptantriebselemente der KI in der medizinischen Bildgebung ist das Streben nach einer höheren Effektivität des Gesundheitswesens. Die Menge an medizinischen Daten wächst im Vergleich zur Anzahl der verfügbaren Ärzte überproportional. Innovationen in mobilen und tragbaren medizinischen Geräten bringen nicht nur eine gewisse Menge an nützlichen Daten, sondern bieten gleichzeitig neue Möglichkeiten für das Screening bestimmter Krankheiten, da sie die Anzahl der Überwachungszeitfenster erhöhen können. In diesem Zusammenhang ist es äußerst wichtig, geringfügige EKG-Änderungen zu analysieren, die durch die Anwendung üblicher visueller und/oder automatischer Elektrokardiogramm-Interpretationen nicht offensichtlich sind, sowie Metriken zu entwickeln, die nicht nur für 12-Kanal-EKG, sondern auch für EKG mit begrenzter Anzahl von Ableitungen gelten [3]. Das Elektrokardiogramm (EKG) hat sich als wertvolle Datenquelle für KI-Studien erwiesen [4]. Das aktuelle Kapitel konzentriert sich auf die Analyse zeitgenössischer Meinungen zur Rolle der Elektrokardiographie beim Screening von Herzerkrankungen, um Erfahrungen mit tragbaren elektrokardiographischen Geräten vorzustellen und um die Menge und Art der Daten zu diskutieren, die durch die Anwendung von Elektrokardiographie-Geräten mit variierender Anzahl von Ableitungen gesammelt werden sollen.

Darüber hinaus werden die Ergebnisse unserer eigenen Forschung vorgestellt. Der Ansatz basiert auf der KI-Methode, um die subtilen Abweichungen des EKG von der Bevölkerungsnorm zur Verwendung in Diagnose- und Prognosesystemen zu definieren.

5.2 Entwicklung der Ansichten über die Rolle des Elektrokardiogramms bei der Bewertung des Risikos von schwerwiegenden kardiovaskulären Ereignissen

Es besteht kein Zweifel, dass die Bewertung des individuellen Risikos für schwerwiegende kardiovaskuläre Ereignisse äußerst wichtig ist.

Es wurden viele verschiedene Modelle entwickelt, um das Gesamtrisiko für die Entwicklung von koronarer Herzkrankheit und anderen kardiovaskulären Erkrankungen zu bewerten. Wahrscheinlich war die erste von ihnen die Framingham-Risikoskala, die 7 Parameter umfasst [5]. Die SCORE-Skala (Systematic Coronary Risk Evaluation-Skala), die auf der Basis von Studienergebnissen europäischer Institutionen entwickelt wurde [6], ist weit verbreitet.

Derzeit sind diese Skalen ein zuverlässiges Instrument zur Bestimmung der Wahrscheinlichkeit der Entwicklung von kardiovaskulären Ereignissen in den nächsten 5–10 Jahren bei Patienten mit bestehender CVD und bei Personen ohne klinische Manifestationen von kardiovaskulärer Pathologie. Gleichzeitig wird ein individuelles Profil von Risikofaktoren und begleitenden kardiovaskulären Bedingungen gemessen, um den Bedarf, die Taktik und die Intensität des klinischen Eingriffs zu bestimmen.

Trotz aller offensichtlichen Vorteile haben diese Skalen, die weit verbreitet und in klinischen Leitlinien enthalten sind, auch eine Reihe von Einschränkungen. Ein Ausdruck dieser Tatsache ist das Auftreten neuer Skalen wie JBS3-Risikoscore und MESA-Risikoscore in den letzten Jahren, die jeweils 15 und 12 Parameter umfassen.

Das offensichtlichste Problem ist die praktische Umsetzung bestimmter Interventionen bei Menschen ohne klinische Symptome von kardiovaskulären Erkrankungen. Wie viel Kosten wird dies verursachen? Ist es möglich, den Empfehlungen auch mit einem hochentwickelten Gesundheitssystem zu folgen?

Laut S. Shalnova und O. Vikhireva [7], wenn wir die SCORE-Skala auf die erwachsene Bevölkerung Norwegens anwenden, dem Land mit der höchsten Lebenserwartung, stellt sich heraus, dass unter den 40-jährigen Norwegern jede fünfte Frau und die meisten Männer ein hohes Risiko für kardiovaskuläre Erkrankungen haben (Gefäßerkrankungen). Im Alter von 50 Jahren steigen diese Zahlen auf 39,5 % und 88,7 % bzw. Für das Alter von 65 Jahren fallen 84,0 % der Frauen und 91,6 % der Männer in die Hochrisikokategorie. Aus praktischer Sicht scheint die strikte Umsetzung der europäischen Empfehlungen selbst für ein so wohlhabendes Land wie Norwegen schon sehr schwierig zu sein. Noch schwieriger wäre dies in Ländern mit einem viel weniger entwickelten System der Versicherungsmedizin, wie etwa der Ukraine.

Das individuelle Risiko wird auf der Grundlage der Ergebnisse der Extrapolation von Kohortenbeobachtungen bestimmt. Es ist klar, dass die Wahrscheinlichkeit von Übereinstimmungen mit einer kleinen Menge von Merkmalen, die in die Risikoskalen aufgenommen werden, für bestimmte Personen gering sein kann.

Natürlich hat die Risikoskalenabschätzung keinen Grund, personalisiert zu sein, d. h. die konventionellen Risikofaktoren zu persönlichen physiologisch entscheidenden Parametern hinzuzufügen, die mit ausgestatteten Techniken ermittelt wurden.

Die Vielfalt aller instrumentellen Techniken macht die Elektrokardiographie zweifellos herausragend. Die 12-Kanal-Elektrokardiographie wird seit den späten 40er-Jahren des letzten Jahrhunderts in epidemiologischen Studien eingesetzt, tatsächlich seit den allerersten Schritten in der Epidemiologie nicht übertragbarer Krankheiten. Speziell für epidemiologische Studien wurde eine Methode zur Messung der Elemente des Elektrokardiogramms und zur Beschreibung seiner Veränderungen entwickelt, die als Minnesota-Code bezeichnet wird, der die Analyse des Elektrokardiogramms vereinheitlicht und daher für die Analyse einer großen Menge an Daten geeignet ist. Dieses Klassifikationssystem wurde später mehrmals verbessert, und es sind verwandte Systeme aufgetaucht, wie Novacode, MEANS und einige andere. In Übereinstimmung mit diesen Analysesystemen werden alle EKG-Veränderungen in eine bestimmte Anzahl von diagnostischen Klassen eingeteilt, jede Veränderung kann als klein (minor) oder groß (major) erkannt werden.

Seit den späten 1970er-Jahren werden regelmäßig Artikel in den renommiertesten Zeitschriften veröffentlicht, die auf großen Stichprobenanalysen und langen Nachbeobachtungszeiträumen (in der Regel 10 bis 30 Jahre) basieren und den Wert sowohl großer als auch kleiner EKG-Veränderungen (nach dem Minnesota-Code oder ähnlichem Klassifikator) als separate Warnhinweise für tödliche und nicht tödliche kardiovaskuläre Unfälle zeigen [8,9,10,11,12,13]. Es bestand kein Zweifel daran, dass die Verwendung von elektrokardiographischen Prädiktoren die Vorhersagegenauigkeit von SCORE und anderen Risikoskalen erhöhte.

2011 veröffentlichte jedoch ein Autorenteam [14] eine systematische Übersicht im Auftrag der US-Kommission für präventive Dienstleistungen (USPSTF), in der 62 Studien analysiert wurden, die fast 174.000 Teilnehmer mit einer Nachbeobachtungszeit von 3 bis 56 Jahren umfassten.

Die Schlüsselfragen, die die Autoren dieser Leitlinien ansprechen, sind: Führt das elektrokardiographische Screening bei asymptomatischen Personen zu einer genaueren Einteilung in Gruppen mit erhöhtem, moderatem oder vernachlässigbarem Risiko für koronare Herzkrankheiten im Vergleich zu traditionellen (Framingham) Risikofaktoren? Welche Vorteile hat das Screening im Vergleich zu dessen Nichtdurchführung in Bezug auf das CHD-Ergebnis, ob das Screening schädlich ist?

Die Autoren fanden weder überzeugende Beweise dafür, dass die Analyse des 12-Kanal-Elektrokardiogramms die Genauigkeit der Einteilung in Risikogruppen verbessert, noch dafür, dass die Implementierung des elektrokardiographischen Screenings das Ergebnis der koronaren Herzkrankheit oder die Verordnung einer risikomindernden medikamentösen Gefäßbehandlung (Statine, Aspirin) positiv beeinflusst. Andererseits gibt es keine Studien, die einen direkten oder indirekten Schaden durch elektrokardiographisches Screening nachweisen. Es gibt nur Arbeiten, die allgemeine Argumente über die Unerwünschtheit der Koronarangiographie oder anderer funktioneller Tests enthalten, die mit der Visualisierung des Myokards verbunden sind, wenn es dafür keine ausreichenden Gründe gibt. Diese Überprüfung bildete die Grundlage für die Empfehlungen der USPSTF [15]. Der allgemeine Schluss dieser Empfehlungen ist, dass eine jährliche routinemäßige elektrokardiographische Untersuchung bei asymptomatischen Personen, die aufgrund traditioneller Risikoskalen ein geringes Risiko haben, nicht durchgeführt werden sollte. In Bezug auf Personen, die zu Gruppen mit mittlerem oder hohem Risiko gehören, konnten die Autoren keine endgültige Schlussfolgerung über das Gleichgewicht von Vorteilen und potenziellem Schaden bei der Durchführung des EKG-Screenings ziehen. Diese Strategie stimmt auch mit den Ergebnissen anderer Empfehlungen und umfangreicher Studien überein, die in den letzten Jahren veröffentlicht wurden [16,17,18]. Es muss gesagt werden, dass diese Empfehlungen und Studien die höchste Beweiskraft nach modernen Systemen zur Bewertung der Qualität von Empfehlungen für diagnostische Tests haben (wie GRADE [19]), weil sie auf einer Metaanalyse einer großen Menge von Daten basieren und sich auf eine Bewertung stützen, wie sehr ein diagnostischer Test das Ergebnis einer Krankheit verbessert oder den Beginn dieser Krankheit vorhersagt.

Es ist interessant zu bemerken, dass die neuesten Leitlinien der Europäischen Gesellschaft für Kardiologie auf dem Gebiet der Prävention von Herz-Kreislauf-Erkrankungen [20] empfehlen, Personen mit einem geringen Risiko für kardiovaskuläre Ereignisse, durch SCORE definiert, aber mit Nachweis einer LV-Hypertrophie im EKG, als Personen mit mittlerem Risiko zu behandeln. Für andere EKG-Syndrome wird diese Empfehlung nicht gegeben.

Separat sollte das elektrokardiographische Screening bei Menschen älterer Altersgruppen und umgekehrt bei jungen Menschen in Betracht gezogen werden, im letzteren Fall, um strukturelle Herzerkrankungen zu erkennen und plötzlichen Herztod zu verhindern, insbesondere bei Menschen, die große körperliche und psychische Belastungen erleben, wie Athleten und Mitarbeiter von Institutionen mit hierarchischen Strukturen. Was die älteren Menschen betrifft, ist die Studie von R. Auer et al. sehr informativ [21], die nach der Veröffentlichung der genannten USPSTF-Empfehlungen publiziert wurde. In dieser Arbeit wurde anhand von bedeutendem Material (mehr als 2000 Teilnehmer, Nachbeobachtungszeitraum von 8 Jahren) gezeigt, dass bei Menschen im Alter von 70–80 Jahren elektrokardiographische Zeichen im Vergleich zu traditionellen Risikofaktoren die Vorhersagegenauigkeit des Screenings erheblich erhöhen, verglichen mit dem Screening, das nur herkömmliche Risikofaktoren anwendet. Die präzisesten und kontextrelevantesten sind die Empfehlungen der American Heart Association (AHA), die 2014 veröffentlicht wurden. Die AHA unterstützt ein solches Screening grundsätzlich, drängt jedoch nicht darauf, dass es obligatorisch ist. Es wird betont, dass erhebliche Ressourcen benötigt werden, um ein obligatorisches jährliches Screening aller konkurrierenden Athleten durchzuführen, daher wird die Entscheidung über die Notwendigkeit eines solchen Screenings auf die lokale Ebene delegiert. Diese Ansicht wird weitgehend von den US National Institutes of Health und der Arbeitsgruppe für Sportkardiologie der Europäischen Gesellschaft für Kardiologie geteilt. Gleichzeitig empfiehlt das Internationale Olympische Komitee spezifischer eine elektrokardiographische Untersuchung aller Wettkampfsportler mindestens alle zwei Jahre.

In Bezug auf Strafverfolgungsbeamte werden nationale Programme für obligatorisches elektrokardiographisches Screening hauptsächlich in der militärischen Luftfahrt durchgeführt, insbesondere in Bezug auf Kandidaten für den Eintritt in die Reihen der Luftwaffe (USA, Israel, Italien usw.). Für militärisches Personal anderer militärischer Zweige wird ein elektrokardiographisches Screening in der Regel erst nach 40 Jahren benötigt. Bei jüngerem Militärpersonal wird es nur durchgeführt, wenn es Beweise gibt, zum Beispiel eine belastete Familiengeschichte. In der Ukraine ist eine elektrokardiographische Untersuchung gemäß den Anordnungen der Leiter der Strafverfolgungsbehörden ein obligatorischer Teil der jährlichen medizinischen Untersuchung, unabhängig vom Alter.

Neben dem elektrokardiographischen Screening, das auf solchen lange etablierten Systemen zur Analyse von 12-Kanal-Elektrokardiogrammen wie dem Minnesota-Code und seinen Derivaten (Novacode, MEANS) basiert, sind in letzter Zeit Arbeiten erschienen, die das Screening mit neuen Werkzeugen zur Analyse von Elektrokardiogrammen beschreiben. Solche Bemühungen haben unserer Meinung nach ausreichende Gründe. Die EKG-Indikatoren, die in den oben genannten Klassifikatoren für elektrokardiographische Zeichen enthalten sind, wurden nicht wegen ihrer besonderen klinischen Bedeutung oder außergewöhnlichen physiologischen Natur ausgewählt, sondern aufgrund der damals umfangreichen Studien zu klinischen und elektrokardiographischen Beziehungen in Bezug auf diese Parameter. Daher hindert nichts daran, andere elektrokardiographische Zeichen im Kontext ihres Wertes für das elektrokardiographische Screening zu untersuchen.

Diese Arbeiten können in zwei Kategorien eingeteilt werden: Eine wird durch Studien repräsentiert, in denen routinemäßige Amplituden-Zeit-Indikatoren berechnet werden, aber ihre ungewöhnlichen Kombinationen verwendet werden. Ein Beispiel für solche Arbeiten sind etwa die Studien der Froelicher-Gruppe [22]. Unserer Meinung nach ist die Arbeit von E. Gorodeski et al. [23] von erheblichem Interesse, die die Fähigkeit einer Entscheidungsregel zeigt, die 6 demographische und 14 elektrokardiographische Amplituden-Zeit-Parameter umfasst, die aus mehr als 400 Indikatoren ausgewählt wurden, um die allgemeinen Todesursachen bei Frauen in der postmenopausalen Periode vorherzusagen. Es ist wichtig zu beachten, dass das 12-Kanal-Elektrokardiogramm gemäß dem Minnesota-Code bei allen untersuchten (mehr als 33.000 Beobachtungen) normal war. Der Nachbeobachtungszeitraum in dieser Arbeit betrug 8 Jahre.

Eine andere Kategorie umfasst Arbeiten, die Merkmale verwenden, die im Vergleich zu den üblichen Amplituden-Zeit-Indikatoren und Parametern, die eine Signalumwandlung mit Computertechnologie erfordern, relativ komplex sind.

Solche Methoden sind derzeit als vierte Generation der Elektrokardiographie bekannt, wobei die erste Generation der Elektrokardiographie eine quasi-manuelle Bewertung der Zeit-gegen-Amplitude-EKG-Daten einschließlich der visuellen Analyse von gezeichneten elektrokardiographischen Kurven war, die zweite beinhaltete die automatisch verarbeitete Messung der Zeit-gegen-Amplitude-EKG-Daten und, ähnlich wie die vorherige Generation, die optische Analyse von Diagrammen. Die dritte Abstammung verwendet sowohl automatisierte Messungen als auch elektrokardiographische Diagnostik, der eine syndromische elektrokardiographische Zusammenfassung folgt.

Somit ist es offensichtlich, dass die automatisierten Werkzeuge sowohl aus der zweiten als auch aus der dritten EKG-Generation nur die Funktionen einer Person – eines Arztes für funktionale Diagnostik – kopieren und erleichtern. Der entscheidende Beitrag der vierten Generation ist die softwarebezogene Bewertung der Informationen, die von diesen Analysemethoden gegeben werden und über die visuelle Datenanalyse hinausgehen.

Ein Beispiel für eine solche Arbeit ist eine multizentrische Studie von T. Shlegel et al. [24], die die Vorteile einer mehrparametrigen Skala demonstrierte, die zusätzlich zu routinemäßigen Amplituden-Zeit-Parametern Technologien wie die Hochfrequenzanalyse des QRS-Komplexes, die Analyse der T-Welle-Morphologie und einige andere in das Screening für koronare Herzkrankheit, Hypertrophie des linken Ventrikels, linksventrikuläre systolische Dysfunktion einbezieht.

Es muss gesagt werden, dass Studien, die zur letzteren Kategorie gehören, einen eher schwachen Beweiswert gemäß der bereits erwähnten GRADE-Skala haben, da sie nur diagnostische Genauigkeit (Sensitivität, Spezifität) liefern und keine Daten zu einem klinisch wichtigen Ausgang der Krankheit. Es ist klar, dass eine langfristige Nachbeobachtungsphase notwendig ist, um das Ergebnis zu bewerten.

Lassen Sie uns die ethnischen Unterschiede in den Parametern eines normalen Elektrokardiogramms separat diskutieren. Der ethnische und noch mehr der rassische Unterschied in den quantitativen Indikatoren des Elektrokardiogramms einer gesunden Person hat schon lange die Aufmerksamkeit der Forscher auf sich gezogen. Es ist notwendig, die genauen Grenzen der Bereiche normaler Werte in verschiedenen ethnischen Gruppen zu kennen, um zu entscheiden, welches Elektrokardiogramm abnormal ist und in welchem Ausmaß. Ethnische und rassischeFootnote 1 Unterschiede in mehreren Hauptamplituden-Zeit-Parametern des Elektrokardiogramms sowie Kriterien, die auf der Bewertung der Amplituden der linken Ventrikelhypertrophie basieren, wurden im Detail untersucht [25, 26]. Es gibt Arbeiten, die den Einfluss von rassischen Unterschieden auf die Wirksamkeit von elektrokardiographischen Entscheidungsregeln auf der Grundlage künstlicher Intelligenz beschreiben [27]. Allerdings wurden multilaterale, universelle Elektrokardiogramm-Analysesysteme wie die Minnesota-Kodierung nach unserem besten Wissen nicht hinsichtlich ethnischer und rassischer Variabilität untersucht. Darüber hinaus wartet das Problem des Einflusses von ethnischen und rassischen Unterschieden auf den prognostischen Wert bestimmter elektrokardiographischer Parameter noch auf seinen Forscher.

5.3 Die Systeme der elektrokardiographischen Ableitungen, Elektrokardiogramm mit begrenzter Anzahl von Ableitungen zur Herzkrankheitsscreening

In diesem Abschnitt wird kurz auf die Entwicklungsstufen des derzeit weit verbreiteten akzeptierten Schemas zur Aufzeichnung und Analyse des 12-Kanal-EKG zurückgeblickt. Es ist bekannt, dass diese drei Ableitungen mit einem bipolaren Gliedmaßendesign seit mehreren Jahrzehnten in der klinisch durchgeführten Elektrokardiographie eingesetzt werden und das Einthoven-Dreieck in der Frontalebene formen. Diese Ableitungen werden heute als Standard bezeichnet. 1942 schlug Goldberger erweiterte unipolare Gliedmaßenableitungen vor, die die drei Standardableitungen aus der Sicht der Analyse der arealen Herz-Elektroaktivität ergänzen, obwohl sie sich auch in der Frontalebene befinden und nicht äquationsunabhängig von den Standardableitungen sind. Davor schlug F. Wilson in den 1930er-Jahren sechs thorakale unipolare Ableitungen vor, die bis Ende der 1940er-Jahre mit unterschiedlichem Erfolg in die Praxis eingeführt wurden. Der klinische Beitrag der Erfindung wurde von Wilson selbst in einem ikonischen Artikel von 1948 zerlegt [28]. Der Wert dieser Ableitungen wird durch ihre einzigartige Fähigkeit bewiesen, pathologische Veränderungen des QRST-Komplexes zu erkennen und zu differenzieren, wie es von der Gruppe der modernen Kardiographieerfinder berichtet wurde. Sie diagnostizieren oft Pathologie, wenn die Gliedmaßenableitungen unverändert bleiben oder es keine Informationen gibt. Die besondere Bedeutung dieser Ableitungen bei der Diagnose von Ischämie im vorderen Septalbereich des linken Ventrikels wird betont. So erhöhten die von Wilson erfundenen Ableitungen, die, wie wir bereits sahen, ab Ende der 1940er-Jahre des letzten Jahrhunderts in die Praxis kamen, die Sensitivität der elektrokardiographischen Methode für lokale Veränderungen im Myokard, und insbesondere in Bezug auf Veränderungen in der vorderen Wand. Für die Zeit war der Standard das EKG in drei und später in sechs Ableitungen von den Gliedmaßen.

Diese Informationen werden hier bereitgestellt, um die Bedeutung einer klaren Artikulation des Umfangs und der Einschränkungen von tragbaren Elektrokardiographen mit einer bestimmten Anzahl von Ableitungen erneut zu betonen.

Die Entwicklung von miniaturisierten ästhetischen Handgrößengeräten für Elektrokardiographietests, die Benutzer in gewissem Maße selbst anwenden können, ohne die Aufsicht ihres Arztes, ist Teil eines breiteren Trends, der als POST (Point-of-Care-Testing) bezeichnet wird, der bei den Patienten kurz für einen medizinischen Test steht, der direkt überall durchgeführt wird, ohne die Ärzte zu besuchen.

Die Pioniere auf diesem Gebiet der für zu Hause verfügbaren Geräte waren tatsächlich die automatischen Haushaltsmessgeräte für den Blutdruck, deren weltweite Produktion 1988 von OMRON gestartet wurde und deren Vertrieb vor 20–25 Jahren begann.

Später, in den 90er-Jahren, wurden auch persönliche Bluttester verfügbar, hauptsächlich Glukose-Level-Detektoren. Ansteckbare Elektrokardiographen mit nur wenigen elektrokardiographischen Ableitungen stellen die nächste Welle von POST-Tools dar, die seit Beginn des 21. Jahrhunderts produziert wurden.

Die ersten Geräte dieser Art für den Massengebrauch waren offenbar CheckMyHeart-Elektrokardiographen (Großbritannien).

Derzeit gibt es Dutzende verschiedener Arten von tragbaren Elektrokardiographiegeräten auf dem Markt für den individuellen Gebrauch. Im Grunde handelt es sich dabei um Ein-Kanal-Elektrokardiographen mit Fingerkontakten. Wir listen einige von ihnen auf, nämlich diejenigen, die am häufigsten in den entsprechenden Reviews erwähnt werden: AfibAlert (USA), AliveCor/Kardia (USA), DiCare (China), ECG Check (USA), HeartCheck Pen (Kanada), InstantCheck (Taiwan), MD100E (China), PC-80 (China). REKA E 100 (Singapur), Zenicor (Schweden), Omron Heart Scan (Japan), MDK (Niederlande).

Alle aufgeführten Geräte haben ein oder mehrere internationale technische Zertifikate (ISO, CE, FDA) und sind als elektrokardiographische Geräte registriert. AliveCor/Kardia und ECG Check-Geräte sind strukturell mit Smartphones integriert, andere Geräte sind spezialisierte elektrokardiographische Anhänge für mobile Geräte (Smartphone, Tablet, Laptop), die in der Lage sind, ein EKG-Signal zu registrieren und ohne Verzerrung über eine Entfernung zu übertragen. Die meisten Geräte sind auf dem offenen Markt ohne Einschränkungen erhältlich, Hersteller einiger Modelle (REKA E 100, ECG Check) erklären, dass sie hauptsächlich für den Vertrieb auf Rezept bestimmt sind. In diesem Fall wird ihr Kauf (oder vorübergehender Gebrauch) in der Regel von der Krankenversicherung gedeckt. Viele Geräte (zum Beispiel Zenicor) haben einen Web-Service, der es ermöglicht, das in einer Ableitung registrierte Elektrokardiogramm sofort zum Arzt zu bringen. Ohne Ausnahme haben alle Ein-Kanal-Geräte umfangreiche und kategorische Haftungsausschlüsse (d. h. Disclaimers), die erklären, dass man bei jeglichen, auch den geringsten Symptomen einer Herzerkrankung sofort einen Arzt aufsuchen sollte und sich nicht nur auf die Ergebnisse der automatischen EKG-Analyse in einer Ableitung verlassen sollte.

Das führende Gebiet der klinischen Anwendung dieser Gadgets ist die Registrierung von arrhythmischen Phänomenen, wie es von den produzierenden Unternehmen angegeben wurde, vor allem Vorhofflimmern. In diesem Zusammenhang ist die Erfahrung von AliveCor/Kardia sehr interessant. Das Unternehmen wurde 2011 gegründet. Ein Jahr später erhielt das Unternehmen das erste Zertifikat von der US Food and Drug Administration. Die Formulierung des vorgesehenen Gebrauchs des zertifizierten Produkts beinhaltet die Aufzeichnung, Anzeige, Speicherung und Übertragung eines Ein-Kanal-Elektrokardiogramms mit einem iPhone-integrierten Gerät. 2013 erhielt AliveCor/Kardia eine zweite FDA-Zertifizierung, die bestätigte, dass das mit seinem Gerät erhaltene Elektrokardiogramm vollständig einem Ein-Kanal-Elektrokardiogramm entspricht, das von einem Standard-Kommerz-Elektrokardiographen aufgezeichnet wurde. Diese Zertifikate haben professionellen Kardiologen das Recht gegeben, das AliveCor/Kardia-Gerät, das mit dem iPhone kombiniert ist, Patienten zu verschreiben. 2014 erhielt das Unternehmen die Erlaubnis der FDA, seine Geräte ohne Zwischenhändler frei zu verkaufen. In diesem Stadium wurde das Gerät nur noch zur Aufzeichnung, Visualisierung und drahtlosen Übertragung des Elektrokardiogramms verwendet, ohne die Funktion seiner automatischen Analyse. Einige Monate später wurde jedoch ein FDA-Zertifikat für den Algorithmus zur automatischen Diagnose von Vorhofflimmern erhalten, der in der Software implementiert wurde. Von diesem Moment an begann der Benutzer der Technologie, sofortiges Feedback über das Vorhandensein oder Fehlen dieser Art von Arrhythmie zu erhalten. Schließlich hat das Unternehmen die neueste FDA-Zulassung erhalten, ein Zertifikat für den sogenannten Normal Detector, einen Algorithmus, der dem Benutzer mitteilt, ob sein Elektrokardiogramm normal oder abnormal ist, nicht nur in Bezug auf Vorhofflimmern, sondern in Bezug auf die Rhythmusregelmäßigkeit im Allgemeinen.

So entwickeln sich moderne miniaturisierte elektrokardiographische Software- und Hardware-Systeme in Richtung einer Komplikation der eingebauten Algorithmen zur Analyse und Interpretation eines Elektrokardiogramms – von Geräten, die nur zur Aufzeichnung eines Ein-Kanal-Elektrokardiogramms und zur Übertragung an einen Spezialisten bestimmt sind, zu eigenartigen Kommunikatoren, die dem Benutzer sofort und direkt mehr oder weniger bedeutende Informationen über den Zustand seines Herzens liefern.

Die Erkennung von zuvor nicht diagnostizierten Arrhythmien ist eines der natürlichsten Gebiete für den weit verbreiteten Einsatz von miniaturisierten elektrokardiographischen Geräten.

Unter diesen Arrhythmien scheint Vorhofflimmern aufgrund seiner Verbreitung, sozialen Bedeutung und der relativen Zuverlässigkeit von automatischen Algorithmen zur Diagnose von Vorhofflimmern auf einer einzelnen EKG-Ableitung den ersten Platz einzunehmen.

Das bereits erwähnte Unternehmen AliveCor/Kardia hat offenbar die umfangreichsten Screening-Studien zu diesem Thema durchgeführt.

Darüber hinaus wurde ein groß angelegtes Screening mit einem tragbaren Ein-Kanal-Kardiographen MDK durchgeführt. Die Ergebnisse dieser und anderer ähnlicher Studien beweisen überzeugend die klinische und kosteneffektive Wirksamkeit des Screenings auf Vorhofflimmern mit spezialisierten elektrokardiographischen Aufsätzen für mobile Geräte. Es ist wichtig, dass es nicht notwendig ist, spezielle Veranstaltungen für ein solches Screening zu organisieren. Das Screening wird während eines Routinebesuchs durchgeführt, zum Beispiel bei einem Hausarzt, oder sogar einfach zu Hause, wenn jedem Screening-Teilnehmer während der Studie ein mobiles Gerät mit einem elektrokardiographischen Aufsatz zur Verfügung gestellt wird.

Andere Arten von Screenings (Erkennung von strukturellen Herzerkrankungen oder Risikofaktoren für ihr Auftreten), die mit elektrokardiographischen Geräten mit einer bestimmten Anzahl von Ableitungen durchgeführt werden, werden in bekannten Studien kaum erwähnt. Wir können uns nur an die bereits alte Arbeit [29] erinnern, die den prädiktiven Wert einer T-Welle-Abflachung in der ersten Ableitung in Bezug auf den Myokardinfarkt bei jungen und mittelalten Männern zeigt. Die in dieser Arbeit vorgestellte Stichprobe und Nachbeobachtungszeit sind jedoch klein und wurden in späteren und größeren Studien nicht bestätigt.

Seit mehreren Jahren entwickelt das NAS Glushkov Institut für Kybernetik in der Ukraine originale elektrokardiographische Geräte. Die „Philosophie“ der Software dieser Geräte basiert auf der Analyse subtiler EKG-Veränderungen, die auf der Grundlage einer konventionellen optischen und/oder automatisierten EKG-Lesung unsichtbar sind. Es wird eine proprietäre Metrik entwickelt, die es ermöglicht, die „Entfernung“ von jedem aktuellen Elektrokardiogramm zum Geschlechts- und Altersbenchmark zu definieren. Wir interpretieren diese Entfernung als zusätzlichen Risikofaktor für MACE sowie als Qualifikator für zukünftige Ereignisse.

Es wurde eine hierarchische Klassifizierung von Miniatur-Elektrokardiographie-Geräten nach zwei Kriterien vorgeschlagen – die Fähigkeit zur EKG-Signalerfassung und die Softwarefähigkeiten (Tab. 5.1).

Tab. 5.1 Klassifizierung von Miniatur-Elektrokardiographie-Geräten

Offensichtlich kann die Klasse eines elektrokardiographischen Geräts als Summe der Punkte auf beiden der oben genannten Kriterien definiert werden.

Die Rolle der routinemäßigen 12-Kanal-Elektrokardiographie in klassischen epidemiologischen Studien in der Kardiologie wird intensiv von der wissenschaftlichen Gemeinschaft diskutiert. Der zunehmende Einsatz von Miniatur-Elektrokardiographie-Geräten ohne Beteiligung von medizinischem Personal wird jedoch in den kommenden Jahren einer der Haupttechnologietrends bleiben. Ein unvermeidlicher Teil dieses Trends, vielleicht der wichtigste, ist die Screening-Komponente, d. h. die Identifizierung verschiedener, einschließlich nicht-trivialer, elektrokardiographischer Zeichen, die von den Benutzern (meist klinisch gesunden Menschen) als Anzeichen einer Herzerkrankung oder Indikatoren für ein erhöhtes Risiko einer solchen Erkrankung in der Zukunft interpretiert werden. Wie oben gezeigt, besteht tatsächlich ein Bedarf an neuen, individualisierten Indikatoren für erhöhte kardiovaskuläre Beschwerden, die aus der Analyse der physiologischen Reaktion einer bestimmten Person zusätzlich zu traditionellen Risikoskalen entnommen werden. Methoden zur Analyse des Wertes von periodisch auftauchenden neuen Risikofaktoren für kardiovaskuläre Erkrankungen wurden kürzlich von M.A. Hlatky et al. [30] zusammengefasst. Wie bei der GRADE-Skala ist das Hauptkriterium der prädiktive Wert für ein klinisch wichtiges Ergebnis der Krankheit. Es ist interessant, dass komplexen Indikatoren, die aus mehreren speziellen bestehen, erhebliche Aufmerksamkeit geschenkt wird.

Langzeit-Nachbeobachtungsstudien sind jedoch nur die letzte Phase der Untersuchung des Wertes eines neuen Risikomarkers. Die Schlussfolgerungen solcher Studien werden erst nach vielen Jahren der „Lebensdauer“ eines neuen Indikators verfügbar. Für eine ziemlich lange Zeit kann er (und wird, aufgrund des oben beschriebenen technologischen Trends) ohne strenge wissenschaftliche Beweise für seinen Wert verwendet werden. Daher ist es bei der Erstellung solcher neuen Indikatoren notwendig zu versuchen, sie so vielseitig und komplex wie möglich zu gestalten. So bedeutet dies in Bezug auf neue elektrokardiographische Marker, die mit tragbaren Geräten für den individuellen Gebrauch gewonnen werden können, die Verwendung der maximal möglichen Anzahl von elektrokardiographischen Ableitungen in tragbaren Geräten und eine prognostische Schlussfolgerung, die nicht auf einem bestimmten Indikator, sondern auf einer Kombination von mehreren Indikatoren basiert.

5.4 Die Generationen der EKG-Analyse, einige moderne Ansätze basierend auf der mathematischen Transformation des EKG-Signals

Wie bereits erwähnt, schlagen wir vor, die Methoden der Elektrokardiogrammanalyse in 4 Generationen zu unterteilen.

Methoden der vierten Generation können wiederum in 2 Gruppen unterteilt werden. Die erste Gruppe besteht aus Ansätzen, die nur auf verbesserten Methoden der Datenanalyse, informativeren Kriterien und Biomarkern basieren, die Elektrokardiogrammregistrierung wird auf übliche Weise durchgeführt. Diese 2. Gruppe von Methoden umfasst neue technische Mittel zur Signalaufzeichnung.

Alle diese Methoden haben eine gemeinsame pathophysiologische Basis: Sie alle zielen darauf ab, die elektrische Homogenität des Myokards auf verschiedene Weisen zu bewerten. In diesem Fall gilt: Je größer die Heterogenität des Myokards aus elektrischer Sicht, mit anderen Worten, je größer die Dispersion der erzeugten transmembranen Aktionspotenziale in Amplitude und Länge, desto größer ist die Wahrscheinlichkeit schwerwiegender kardiovaskulärer Ereignisse.

Es sollte angemerkt werden, dass einer der Hauptanwendungsbereiche der Technologien der vierten Generation das Screening von Herzerkrankungen ist.

Die Machbarkeit der elektrokardiographischen Untersuchung der häufigsten Herzerkrankungen, insbesondere der koronaren Herzkrankheit, hinsichtlich des Preis-Wirkungs-Verhältnisses wird intensiv diskutiert. Die frühzeitige Erkennung von Myokardischämie durch Ruhe-EKG oder ambulantes EKG bei Personen über 40 Jahren ohne Symptome einer koronaren Herzkrankheit, mit atypischen Brustschmerzen oder mit stabiler Angina pectoris mindert das Risiko schwerwiegender kardiovaskulärer Ereignisse. Die Kosten einer Massenuntersuchung sind jedoch sehr hoch [31]. Daher ist es notwendig, zwei Aufgaben zu lösen, um die Wirksamkeit der elektrokardiographischen Untersuchung zu erhöhen: einerseits die Kosten zu senken und das Verfahren der Untersuchung und Interpretation der Ergebnisse zu vereinfachen, andererseits die Sensitivität des Tests zu erhöhen.

Die vierte Generation der Elektrokardiographie zielt darauf ab, beide Probleme zu lösen.

Die bekannteste Methode der ersten Gruppe der vierten Generation der Elektrokardiographie-Technologien ist das sogenannte „signalgemittelte Elektrokardiogramm“. Aus semantischer Sicht ist ein signalgemitteltes Elektrokardiogramm ein Elektrokardiogramm, das durch Mittelung mehrerer elektrokardiographischer Komplexe zur Verbesserung der Signalqualität erzeugt wird. Das Mittelungsverfahren wird in vielen modernen Methoden der Elektrokardiogrammanalyse verwendet, aber in der wissenschaftlichen Literatur hat sich leider die engere Bedeutung des Begriffs signalgemitteltes Elektrokardiogramm (synonym mit hochauflösendem EKG) durchgesetzt. Damit ist in der Regel die Analyse von Spätpotenzialen gemeint, d. h. die zeitliche und spektrale Untersuchung von niederamplitudigen und hochfrequenten Signalen im Endteil des QRS-Komplexes und im Anfangsteil des ST-Segments. Diese Methode wird weit verbreitet eingesetzt, es gibt Konsensdokumente verschiedener kardiologischer Gesellschaften (wie dem American College of Cardiology) [32]. Der Wert der Analyse von Spätpotenzialen zur Bestimmung des Risikos von ventrikulärer Tachykardie bei Patienten mit Myokardinfarkt ist nachgewiesen. Weniger starke, aber immer noch ausreichende Beweise deuten darauf hin, dass diese Methode auch nützlich ist, um das Risiko von ventrikulärer Tachykardie bei Patienten mit nicht-koronarer Kardiomyopathie zu bestimmen [33]. Eine Verbesserung dieser Methode ist die Analyse der Spätpotentiale der P-Welle, die zur Beurteilung des Risikos von Paroxysmen von Vorhofflimmern verwendet wird [34].

Es kann jedoch gesagt werden, dass die jüngste Analyse von Spätpotenzialen durch neuere und modernere Methoden der Elektrokardiogrammanalyse ersetzt wurde, die noch nicht so weit verbreitet getestet wurden wie die Analyse von Spätpotenzialen, aber noch vielversprechender in Bezug auf ihren Wert bei der Bestimmung kardiovaskulärer Ereignisse sind.

Wir betrachten die Morphologie (Form) Analyse der T-Welle des Elektrokardiogramms als potenziell interessant und elektrophysiologisch sinnvoll. Mathematisch ist diese Methode die Zerlegung des elektrokardiographischen Signals nach Werten an speziellen (singulären) Punkten mit der Analyse der Hauptkomponenten [35]. Im Rahmen dieser Methode wird der sogenannte Komplexitätskoeffizient der T-Welle berechnet.

Dieser Koeffizient gibt an, inwieweit die Form der T-Welle des Elektrokardiogramms durch ein einfaches Dipolmodell der Elektrokardiogrammquelle und entsprechend der Beitrag komplexerer Quellen beschrieben werden können. Je höher dieser Koeffizient, desto heterogener ist das Myokard in elektrischer Hinsicht. Diese Betrachtung der Morphologie der T-Welle hat sich als guter Prädiktor für das Risiko kardiovaskulärer Ereignisse in der Allgemeinbevölkerung erwiesen [36], unter jungen Sportlern [37] und für Patienten mit Myokardinfarkt. Es gibt auch andere, einfachere Ansätze zur Betrachtung der Form der T-Welle des Elektrokardiogramms. So ist diesbezüglich die EKG-Analyse im Phasenraum zu erwähnen. Wenn das System durch zwei Variablen beschrieben wird, dann hat der Phasenraum zwei Dimensionen, und jede Variable entspricht einer Dimension. In diesem Fall ist der Phasenraum eine Phasenebene, d. h. ein rechtwinkliges Koordinatensystem, entlang dessen Achsen die Werte der beiden Variablen aufgetragen werden. Dabei wird auf technologischer Ebene an jedem Punkt der anfänglichen elektrokardiographischen Antwort im Zeitbereich ihre erste Ableitung durch quantitative Methoden geschätzt, und alle weiteren Verarbeitungen werden auf der Phasenebene durchgeführt. Dieser Ansatz zur EKG-Analyse wird seit langem verwendet, mindestens seit den späten 70er-Jahren des letzten Jahrhunderts [38]. Das Kybernetikzentrum der Nationalen Akademie der Wissenschaften der Ukraine entwickelt seit mehreren Jahren einen anderen Ansatz zur EKG-Phasenanalyse. Diese Behandlung beinhaltet die Aufteilung der Phasentrajektorie in separate Herzzyklen, die Auswahl von Trajektorien mit der gleichen Morphologie, die Trajektorien werden im Phasenraum gemittelt mit anschließender Bewertung des „Referenzzirkels“ auf der durchschnittlichen Phasentrajektorie.

So werden die Indikatoren der Form der durchschnittlichen Phasentrajektorie bewertet, und die Trajektorien von ektopischen Kardiokomplexen werden nicht berücksichtigt, während in den anderen oben genannten Arbeiten zur EKG-Phasenanalyse sie im Gegenteil Gegenstand der Analyse sind. Wir haben eine Reihe von quantitativen Indikatoren für die Analyse der Form der durchschnittlichen Phasentrajektorie vorgeschlagen, der empfindlichste davon war der Symmetrieindex, d. h. das Verhältnis der maximalen Geschwindigkeit am ansteigenden Segment der T-Welle zur maximalen Geschwindigkeit am abfallenden Segment der T-Welle (bei positiver T) oder das Verhältnis der maximalen Geschwindigkeit am abfallenden Segment der T-Welle zur maximalen Geschwindigkeit am ansteigenden Segment der T-Welle (bei negativer T).

Der diagnostische Wert dieses Ansatzes zur EKG-Analyse in vielen klinischen Situationen wurde nachgewiesen, einschließlich der Analyse nur der ersten elektrokardiographischen Ableitung [39].

Auch ein gewisses Reservat zur Steigerung der diagnostischen Informativität bei der Beurteilung von Repolarisationsmustern könnte mit der Evolution von mathematischen Beschreibungsmodellen des ST-Segments und der T-Welle durch mehrere Approximationsfunktionen verbunden sein [40].

Ein weiterer vielversprechender Ansatz ist die sogenannte Hochfrequenzanalyse des QRS-Komplexes. Sie besteht in der Berechnung der Signalstärke im Band 150–250 Hz in der Mitte des QRS-Komplexteils des EKG. Es wurde gezeigt, dass eine Abnahme dieses Indikators ein zuverlässiger Prädiktor für Myokardischämie ist, sowohl im akuten Koronarsyndrom als auch in der chronischen asymptomatischen Ischämie [41].

Es ist sinnvoll, einen einfachen und klaren Ansatz zu erwähnen, der auf der Berechnung des räumlichen Winkels zwischen den Spitzen des QRS-Komplexes und der T-Welle des Elektrokardiogramms basiert. Dieser Parameter ist im Wesentlichen ein verbesserter ventrikulärer Gradient von Wilson, der seit 1934 bekannt ist. In den letzten Jahren haben groß angelegte Studien gezeigt, dass dieser einfache Indikator ein starker Prädiktor für kardiovaskuläre Ereignisse und Mortalität in der Allgemeinbevölkerung ist, insbesondere bei Frauen [42].

Am Ende des letzten und am Anfang unseres Jahrhunderts wurde ein solcher elektrokardiographischer Indikator der elektrischen Homogenität des Myokards weit verbreitet eingesetzt, wie die räumliche Varianz des QT-Intervalls, d. h. der Unterschied zwischen dem längsten und kürzesten QT-Intervall in 12 Ableitungen. In jüngster Zeit wurde dieser Indikator kritisiert, hat aber sicherlich noch nicht seine ganze Nützlichkeit erschöpft [43].

Der von L. Titomir entwickelte Ansatz [44], der als Dipol-Elektrokardiotopographie (DECARTO) bezeichnet wird, ist interessant und gut begründet. Dies ist eine Methode zur visuellen Darstellung und Analyse von Informationen, die mit drei orthogonalen Ableitungen gewonnen wurden. Es handelt sich um eine Quasi-Kartierung des elektrischen Prozesses in den Ventrikeln des Herzens auf der Basis von orthogonalem EKG, basierend auf der Verwendung eines Modells der ventrikulären Depolarisationswelle, die durch den elektrischen Vektor des Herzens reflektiert wird. Die Komponenten dieses Vektors sind proportional zu den entsprechenden Signalen der orthogonalen Ableitungen. An jedem Zeitpunkt wird die Depolarisationsfront auf ein sphärisches Quasiperikardium (eine Kugel, die im geometrischen Zentrum der Ventrikel zentriert ist und das Herz bedeckt) in Form eines sphärischen Segments projiziert. Das Hauptanwendungsgebiet dieser Methode ist das akute Koronarsyndrom, die Prognose von kurz- und langfristigen Behandlungsergebnissen des akuten Myokardinfarkts.

Schließlich sollte eine separate Untergruppe Methoden umfassen, die nicht auf der Analyse indirekter elektrokardiographischer Signale basieren, sondern vielmehr auf der Variabilität bestimmter Merkmale einzelner Kardio-Komplexe über einen bestimmten Zeitraum. Es ist notwendig, diese Methoden von der Analyse der Herzfrequenzvariabilität zu unterscheiden, wenn nicht die Parameter Ihres eigenen Kardiozyklus analysiert werden, sondern nur R-R-Intervalle.

Es gibt viele Methoden und Schätzungen der Variabilität bestimmter Elemente des kardialen Signals von Komplex zu Komplex. Dies ist eine Analyse der Variabilität der Amplitude der T-Welle auf Mikrovolt-Ebene und einiger anderer. Am häufigsten ist die Analyse der Dauer der Variabilität des QT-Intervalls (QTV). Dieser Indikator wird auch zur Beurteilung des Risikos lebensbedrohlicher ventrikulärer Arrhythmien bei Patienten mit diagnostizierten Herzerkrankungen verwendet [45].

Diese Übersicht ist bei weitem nicht vollständig. Es gibt andere moderne Methoden der Elektrokardiogrammanalyse, deren Autoren auf ihrer hohen Effizienz bestehen. In all dieser Vielfalt kann der Kliniker leicht „ertrinken“. Daher sollten Informationstechnologien entwickelt werden, die die mit mehreren modernen computerisierten Methoden der Elektrokardiogrammanalyse gewonnenen Daten zusammenfassen und dem Arzt einen integralen Koeffizienten anbieten, der die Wahrscheinlichkeit einer Herzerkrankung oder eines kardiovaskulären Ereignisses zeigt. In diesem Zusammenhang sollten die Ergebnisse des Labors für Funktionale Diagnostik der US-amerikanischen Nationalen Luft- und Raumfahrtbehörde (NASA) in Houston erwähnt werden.

In den letzten Jahren zieht die Elektrokardiogrammanalyse mit Methoden der künstlichen Intelligenz viel Aufmerksamkeit auf sich. Tatsächlich hat EKG Vorteile für KI-Anwendungen im Deep Learning. Das EKG ist leicht zugänglich und liefert iterierbare unverarbeitete Daten, die für die digitale Speicherung und Übertragung verfügbar sind. Eine weitere Besonderheit ist die vollautomatische EKG-Darstellung, bei der die genauen Studienanwendungen riesige EKG-Datenbanken und Datensätze klinischer Daten verwenden, die mit modernsten Computerfähigkeiten zusammenarbeiten, um den Nutzen des KI-gestützten EKG, des Detektionsapparats von EKG-Zeichen und Strukturen, die dem menschlichen Auge verborgen sind, zu demonstrieren. Diese Strukturen können die Herzerkrankung, wie linksventrikuläre (LV) systolische Dysfunktion, stille Vorhofflimmern (AF) und hypertrophe Kardiomyopathie (HCM), erkennen, könnten aber auch die systemische Physiologie widerspiegeln, wie das Alter und Geschlecht einer Person oder ihre Serumkaliumwerte usw. [46]. Natürlich ist der Einsatz von KI für die EKG-Analyse im Kontext der Vorhersage verschiedener Herzerkrankungen von besonderem Interesse. In der Arbeit [47] wird gezeigt, dass das EKG-KI-Modell, das ausschließlich auf Informationen basiert, die aus dem EKG extrahiert wurden, HF mit einer Genauigkeit vorhersagt, die mit den vorhandenen FHS- und ARIC-Risikorechnern vergleichbar ist. Es gibt mehrere andere hochwertige Arbeiten zu diesem Thema.

Außerdem möchten wir besonders die Arbeit hervorheben, in der gezeigt wird, dass der Unterschied zwischen individuellem biologischem Alter, definiert durch KI-EKG, und chronologischem Alter ein unabhängiger Prädiktor für allgemeine und kardiovaskuläre Mortalität ist. Diskrepanzen zwischen diesen könnten möglicherweise eine unabhängige biologische Alterung widerspiegeln [48].

Es sollte beachtet werden, dass die weitere Entwicklung der vierten Generation der Elektrokardiographie ohne mathematische und Computermodellierung unmöglich ist. Allerdings haben Modelle der elektrischen Herzaktivität, die mit hohen Ebenen der räumlichen Verteilung des Objekts eingestellt sind, erhebliche Lücken bezüglich empirischer Modelle, die hauptsächlich verwendet werden, um die Verbindungen von elektrophysiologischen Phänomenen in einem Herz auf der viszeralen Ebene mit EKG-Veränderungen zu definieren. Letzteres beinhaltet vor allem die Aufgabe, die Mechanismen der EKG-Pathologieveränderungen bei Myokardischämie aufgrund der Zunahme ihrer elektrischen Inhomogenität und allmählich ihrer Instabilität zu verstehen. Angesichts der Inkonsistenz einiger Testvolumensätze erschwert dieser Zusammenhang die Entwicklung neuer Algorithmen zur Diagnose von Ischämie in ihren frühen Stadien sowie von Methoden zur Quantifizierung einiger Manifestationen von EKG-Störungen der Aktivierung und Repolarisation des Herzmuskels unter Anwendung eines einzigen Modells.

Die Entwicklung der Computertechnologie und der Informationstechnologie hat der Elektrokardiographie einen neuen Impuls gegeben. Das elektrokardiographische Signal, das leicht aufgezeichnet und digitalisiert werden kann, „provoziert“ angeblich Ärzte und Mathematiker zur Zusammenarbeit, nach dem Motto von Galileo Galilei: „Messen Sie alles, was gemessen werden kann, machen Sie alles messbar, was bisher nicht gemessen wurde.“ Das Ergebnis dieser Zusammenarbeit ist die Schaffung neuer effektiver Methoden der elektrokardiographischen Diagnose, die im Laufe der Zeit einen Platz in jeder Klinik und Arztpraxis finden und die traditionelle Elektrokardiographie ersetzen können.

5.5 Anomalieerkennung in EKG unter Verwendung des maschinellen Lernansatzes

Viele Geräte können ein EKG in klinisch kontrollierten Bedingungen durchführen sowie während des Trainings und im 24/7-Regime während alltäglicher Lebensaktivitäten. Die vergleichsweise breite Verfügbarkeit der EKG-Aufzeichnungen, sowohl klinisch als auch von tragbaren Geräten, unterstützt ihre Verwendung als Grundlage des Online-Diagnosetools. Die Durchführung der EKG-Anomalieerkennung versucht, als Vorhersage- und Präventionstool für gefährliche Gesundheitszustände in Verbindung mit Herzfehlfunktionen zu dienen.

In EKG kann das anomale Verhalten als unregelmäßige Herzrhythmen oder Herzschläge mit ungewöhnlichen Zeit-Magnitude-Parametern dargestellt werden. Trotz vieler Abweichungen vom bedingten normalen EKG, die in der Literatur beschrieben wurden, kann es vorkommen, dass ihre Kombination oder die winzigen Veränderungen am Anfang der Krankheitsentwicklung nicht offensichtlich sind, seltene Ereignisse sind oder verborgen bleiben. Daher kann die Anwendung der regelbasierten Anomalieerkennung weniger effektiv sein als die Verwendung des datengetriebenen, maschinellen Lernansatzes.

Die Anomalieerkennung ist eine der grundlegenden Aufgaben im Data Mining und besteht darin, die Objekte zu identifizieren, die erheblich von einem Konzept der Normalität in jedem Datensatz abweichen [49]. Je nach Kontext können solche Objekte unregelmäßig, unerwartet, selten oder einfach „seltsam“ sein. Aufgrund der unscharfen und anwendungsabhängigen Definitionen für „Abweichung“ und „Normalität“ gibt es eine Vielzahl von Anomalieerkennungsalgorithmen. Die Algorithmen der Anomalieerkennung können grob in zwei Hauptklassen unterteilt werden: unüberwacht und überwacht, abhängig von der Verfügbarkeit der beschrifteten Daten. Eine ausgezeichnete Beschreibung der Anomalieerkennungstechniken findet sich in [50].

Unüberwachte Methoden verwenden nicht die Informationen über die Labels der Daten (normal oder anomalous) im Trainingssatz. Diese Gruppe von Methoden enthält modellbasierte Methoden (die auf der Beschreibung des Datengenerierungsmodells basieren) und nähebasierte Methoden (die die Abstände zwischen Datenpunkten im Merkmalsraum verwenden). Bei der überwachten Anomalieerkennung sind vorherige Informationen über die Labels im Trainingssatz verfügbar. In diesem Fall können viele allgemeine Klassifizierungsmethoden potenziell verwendet werden. Aber im Falle der Anwendung auf Anomalie vs. normale Objektklassifikation wird dies weniger verwendet als unüberwacht, weil die Anzahl der Anomalien normalerweise begrenzt ist und oft die Anomalien nicht im Voraus verfügbar sind.

Viele Methoden der Anomalieerkennung wurden auf die EKG-Analyse angewendet, wobei der Fokus auf verschiedenen Arten von Tiermerkmalen lag. In [51] wird eine Übersicht über die am häufigsten verwendeten Ansätze präsentiert. Die Autoren von [52] haben nach der wellenbasierten Extraktion von Herzfrequenzvariabilitätsmerkmalen einen Support Vector Machine-Klassifikator angewendet, um die Klassifikation von arrhythmischen Schlägen zu ermöglichen. Multilineare Hauptkomponentenanalyse wird verwendet, um das EKG zur Extraktion von krankheitsveränderten Mustern zu verarbeiten, gefolgt von Anomalieerkennung mithilfe von tiefem Support Vector Data Description in [53]. Das vorgeschlagene Framework erzielt überlegene Leistung bei der Erkennung abnormaler EKG-Muster, wie Vorhofflimmern, rechter Schenkelblock und ST-Depression. In jüngster Zeit wird das Training von Deep-Learning-Netzwerken immer mehr Aufmerksamkeit für die Entwicklung der EKG-Anomalieerkennung. In [54] wird eine neuartige Hybridarchitektur vorgestellt, bestehend aus Long Short Term Memory-Zellen und Multi-Layer-Perceptrons. Simultanes Training drängt das gesamte Netzwerk dazu, beschreibende Merkmale zu lernen, die sich gegenseitig ergänzen, um Entscheidungen zu treffen, was zu einer durchschnittlichen Klassifikationsgenauigkeit von 97 % über mehrere Datensätze in der EKG-Datenbank führte.

5.6 Anomalieerkennung mit Isolation Forest zur Quantifizierung der Abweichung des mittleren EKG von der Bevölkerungsnorm

5.6.1 Unüberwachte Anomalieerkennung durch Isolation Forest

Isolation Forest (IF) [55] ist eine der beliebtesten Methoden zur Anomalieerkennung [56]. Um zu bestimmen, ob der Vektor der Merkmale, der das zu analysierende EKG repräsentiert, eine Anomalie in der Gruppe der Vektoren ist oder nicht, wird unüberwachtes Lernen zur Isolierung der Anomalien verwendet. Die Idee ist, dass die Anomalien leichter von dem Cluster zu trennen sind als nicht-anomale Vektoren, da sie am Rand des Clusters liegen. Um einen Vektor im Raum zu isolieren, wählt der IF-Algorithmus rekursiv die Achse in einem Merkmalsraum aus und teilt diese Achse dann zufällig, indem er den Wert zwischen dem Minimum und Maximum der entsprechenden Merkmalswerte auswählt. Nach mehreren Partitionen scheint die Koordinate des einzelnen Vektors getrennt zu sein. Die Anzahl der Partitionen, die benötigt werden, um jeden Vektor zu isolieren, wird verwendet, um den Anomalie-Score dieses Vektors zu berechnen. Wenn der Vektor weit von den restlichen Vektoren entfernt ist, ist die Anzahl der Partitionen, die benötigt werden, um ihn zu isolieren, ziemlich klein, da die Koordinaten des Vektors erheblich von den Koordinaten der anderen Vektoren abweichen. Diese Methode wird zur Identifizierung von winzigen Veränderungen im EKG von mehreren Gruppen von Probanden angewendet.

5.6.2 Daten der Probanden

Fünf verschiedene Gruppen wurden untersucht [57]: Gesunde Probanden ohne gemeldete Herz-Kreislauf-Probleme (Normal Controls, NC), Probanden mit nachgewiesenen koronaren Herzkrankheiten (CID), Probanden, die sich von COVID-19 erholt haben, Militärpersonal mit Minenexplosionsverletzungen (Kämpfer) und zwei Untergruppen von Teilnehmern einer Massenuntersuchung in einer ländlichen Region der Ukraine. Untergruppe 1 bestand aus Personen, die während der fünfjährigen Nachbeobachtungszeit starben (allgemeine Sterblichkeit), Untergruppe 2 aus Personen, die in diesem Zeitraum nicht starben.

Für diese Studie wurde das signalgemittelte EKG (SAECG) einer Gruppe von 181 Personen (Männer, im Alter von 18 bis 28 Jahren) verwendet. Ursprünglich enthielten die Daten EKGs, die in sechs EKG-Leitungen (I, II, III, aVR, aVL, aVF) aufgezeichnet wurden. Aus jeder der sechs SAECG-Leitungen wurden 34 Merkmale extrahiert:

  • Dauern von P-, Q-, R-, S-Spitzen und QRS-Komplex,

  • Dauern von PR-, QR-, TR-Intervallen,

  • Dauer des JT-Segments, Dauer von J bis zur Spitze von T, Dauer von der Spitze bis zum Ende von T,

  • Amplituden von P-, Q-, R-, S-, T-Spitzen und J-Welle,

  • Mittlere Größe über das ST-Segment, die Größe am Ende des ST-Segments,

  • Fläche unter der P-Spitze, Fläche unter dem QRS-Komplex,

  • Flächen unter der T-Spitze vom Anfang bis zur Spitze und von der Spitze bis zum Ende,

  • Endgültige Ableitungswerte sind an aufsteigenden/abfallenden Teilen der T-Spitze.

Insgesamt werden 204 Merkmale aus jeder Leitung berechnet, um das mehrkanalige SAECG zu charakterisieren.

5.6.3 Quantifizierung der Entfernung zur Norm

Nachdem die SAECG-Merkmale extrahiert wurden, kann jedes EKG als Vektor im 204-dimensionalen Merkmalsraum dargestellt werden. Der Wert jedes Merkmals ist die Koordinate des jeweiligen EKGs in diesem Raum in Bezug auf die entsprechenden Achsen. Im Falle einer Gruppe von EKGs mit ähnlichen Eigenschaften werden die entsprechenden Merkmalsvektoren ein Cluster im Raum bilden. Wenn das bestimmte EKG weit vom Cluster entfernt ist, könnte dies darauf hinweisen, dass seine Merkmale sich von denen der Clustermitglieder unterscheiden. Der Vektor des EKGs, der der Gruppe von EKGs ähnlich ist, die das Cluster bilden, wird innerhalb des Clusters liegen.

In dieser Arbeit wird vorgeschlagen, das Konzept von Ausreißer/Inlier zur Erkennung der Abweichungen des EKGs von der Gruppe der anderen EKGs zu verwenden. Um zu bestimmen, ob das bestimmte EKG ein Ausreißer ist oder nicht, wird der Isolation Forest Anomalie-Detektor verwendet.

Das Verfahren zur Verwendung von IF bei der Bestimmung der Abweichung des aktuellen EKGs von der Gruppe der Norm ist wie folgt:

  1. 1.

    Für die Gruppe der normalen EKGs wird das SAECG erhalten und die Merkmale der SAECGs extrahiert.

  2. 2.

    Trainieren Sie den IF-Anomalie-Detektor mit der Gruppe der normalen EKGs.

  3. 3.

    Für das neue, zu analysierende EKG führen Sie es durch den IF, dann erhalten Sie den Anomalie-Score.

Die negativen Werte des Anomalie-Scores deuten darauf hin, dass das EKG eine Anomalie ist; dies wird als erhebliche Abweichung des EKGs von der Norm interpretiert. Zusätzlich kann der absolute Wert des Anomalie-Scores als Grad der Abweichung von der normalen Gruppe verwendet werden. Je größer der absolute Wert ist, desto weiter ist das SAECG von der Bevölkerungsnorm entfernt, und daher ist der Unterschied zwischen dem aktuellen EKG und der normalen Gruppe signifikanter.

5.6.4 Ergebnisse des Experiments

In Abb. 5.1 wird die Verteilung der Probanden aus den NC-, CID- und COVID-Gruppen dargestellt. Als vertikale Achsen wird die Projektion auf den Haupt-Eigenvektor aus der PCA-Zerlegung der Merkmalsmatrix zur Konstruktion des 2D-Plots bereitgestellt. Tab. 5.2 enthält Mittelwerte und Standardabweichungen der Entfernung von den Zentren der Cluster für verschiedene Gruppen.

Abb. 5.1
figure 1

Die Verteilung der Probanden aus der COVID-Gruppe (a), CAD-Gruppe (b) und Kämpfergruppe (c) im Vergleich zu NC-Probanden. (Bildquelle: Illya Chaikovsky, Anton Popov)

Tab. 5.2 Mittelwert und Standardabweichung des Anomalie-Scores

Wie man sehen kann, unterscheiden sich die Verteilung der Entfernungen und die relative Anzahl der Ausreißer für die verschiedenen Gruppen, was auf die Rezeptivität der vorgeschlagenen Methode für die Merkmale des ursprünglichen SAECG hindeutet. Im Falle von COVID-Probanden sind die Positionen ziemlich gleichmäßig verteilt, und Punkte, die die COVID-Patienten repräsentieren, haben sowohl positive als auch negative Entfernungswerte. Dies deutet darauf hin, dass das EKG von COVID-Probanden keine subtilen Abweichungen von der NC-Gruppe enthält. Im Gegensatz dazu haben viele CAD-Probanden eine negative Entfernung von der NC-Gruppe, was auf den Unterschied zwischen den SAECG-Merkmalen aufgrund der Veränderungen der Herzaktivität hindeutet.

Bei der Schätzung der Entfernung zwischen den untersuchten Gruppen und den normalen Kontrollen wurde festgestellt, dass die größte Entfernung zwischen der Gruppe der gesunden Freiwilligen und der CAD-Patientengruppe und der Gruppe der Probanden, die innerhalb von 5 Jahren nach den Nachuntersuchungen verstorben sind (Gesamtmortalität), besteht. Dies könnte auf eine weitere Entwicklung des Mortalitätsprognose-Scores auf der Grundlage der Ausreißererkennung hindeuten. Die geringste Entfernung von NC wurde in der Kämpfergruppe festgestellt.

Wie bereits erwähnt, nimmt die Rolle von Methoden der künstlichen Intelligenz bei der EKG-Analyse erheblich zu. Natürlich sollten die Nachteile dieser Methode nicht unterschätzt werden [58, 59]. Zu diesen Mängeln gehört in der Regel die Notwendigkeit, eine große Menge an Daten zu analysieren, was eine hohe Qualifikation der Forscher erfordert. Oft besteht die Notwendigkeit, die verwendeten Modelle während der Studie oder nach der Implementierung aufgrund der Verschiebung der Daten zu aktualisieren. Ein weiteres wichtiges Problem ist das Overfitting, d. h. eine Situation, in der der Algorithmus sich zu sehr an die Trainingsstichprobe anpasst, eine maximale Genauigkeit in ihr erreicht, aber seine Leistung auf anderen Populationen viel schlechter ist. Die Lösung dieses Problems erfordert eine „Feinabstimmung“ des Trainingsprozesses.

Das größte Problem, das die weit verbreitete Implementierung von KI-Methoden in der Praxis der Kardiologen zu behindern scheint, ist jedoch die „Black-Box-Natur“ der Ergebnisse, die mit KI erzielt werden. Dies bedeutet, dass Kliniker eine schlechte Vorstellung von der logischen Kette der Schlussfolgerungen haben, die zu bestimmten Ergebnissen führen, und ihnen daher nicht vertrauen. Um dieses Problem zu lösen, hat sich in den letzten Jahren eine spezielle Linie in der Theorie und Praxis der maschinellen Lernmethoden entwickelt, die als erklärbares maschinelles Lernen bezeichnet wird [60]. Natürlich hat auch dieser Ansatz seine Grenzen.

Die oben genannten Einschränkungen, insbesondere die „Black-Box-Natur“, führen wahrscheinlich unter anderem dazu, dass KI-gestützte EKG-Analysemethoden hauptsächlich zur Lösung spezifischerer Probleme eingesetzt werden und selten zur Bestimmung des globalen Todesrisikos aus allen Ursachen verwendet werden. Nur wenige Arbeiten zu diesem Thema sind bekannt. In der Arbeit von A.A. Mahayni und Co-Autoren [61] wurde KI zur Vorhersage der Langzeitmortalität nach Herzoperationen eingesetzt. Sie verwendeten präoperative EKGs von Probanden mit nachgewiesener linksventrikulärer Auswurffraktion, um ein Convolutional Neural Network für die binäre Klassifikation zu trainieren, und zeigten einen erhöhten prognostischen Wert bei der Vorhersage der Langzeitmortalität bei Patienten, die herzchirurgische Eingriffe durchlaufen haben. Eine andere Arbeit [62] verwendete eine massive Menge an 12-Kanal-Ruhezustands-EKGs, um ein tiefes neuronales Netzwerk zu trainieren und die 1-Jahres-Mortalität mit hoher Wirksamkeit vorherzusagen. Es wurde gezeigt, dass selbst das EKG, das von einem qualifizierten Elektrokardiologen als normal interpretiert wird, wichtige prognostische Informationen für den KI-Algorithmus liefern und bei der Erstellung korrekter Vorhersagen helfen kann.

Wir interpretieren im Rahmen unserer Metrik die Entfernung von jedem aktuellen Elektrokardiogramm zur Schwelle als Risikofaktor für langfristige Ergebnisse.

Die Neuheit unseres Ansatzes besteht in der Fähigkeit, die Gruppen von SAECGs zu spezifizieren, von denen wir die Abweichungen finden wollen. Dies ermöglicht die Anpassung der Risikoanalyse an die Kohorten von Menschen, die von Natur aus spezifische Eigenschaften der Herz-Elektrizitätsaktivität haben, wie zum Beispiel Sportler, Kinder usw. Wir haben gezeigt, dass der gleiche Rahmen verwendet werden kann, um die winzigen Abweichungen von der Gruppennorm zu erfassen und ihren Wert zu quantifizieren, der als prognostisches Merkmal des Risikos verwendet werden kann. Der Vorteil des eingesetzten Isolation Forest Anomalie-Detektors ist seine Fähigkeit, mit kleineren Stichprobengrößen zu arbeiten, was für den Fall nützlich ist, dass relativ kleine Gruppen zum Vergleich des EKG vorhanden sind. Gleichzeitig kann IF extrem große Datenvolumen verarbeiten und ist robust gegenüber der Präsenz von irrelevanten Merkmalen. Zusammen mit seiner Fähigkeit, die Anomalien im Datensatz direkt zu isolieren und einen quantifizierten Score des Abstands vom Cluster zu liefern, ist er am besten geeignet für die Erkennung von subtilen Veränderungen in den SAECGs im Vergleich zur Gruppennorm.

5.7 Lehrauftrag

  1. 1.

    Beschreiben Sie die Entwicklung und die aktuelle Meinung zur Rolle des Elektrokardiogramms bei der Beurteilung des Risikos für größere kardiovaskuläre Unfälle.

  2. 2.

    Beschreiben Sie die grundlegenden Eigenschaften und die Klassifizierung der Miniatur-Elektrokardiographiegeräte.

  3. 3.

    Heben Sie die Generationen der EKG-Analyse hervor, beschreiben Sie die grundlegenden Eigenschaften jeder einzelnen.

  4. 4.

    Beschreiben Sie Ihre Reflexion der Anpassungen der Risikofaktoren an verschiedene Gruppen von Probanden, die in diesem Kapitel vorgeschlagen wurden.

  5. 5.

    Beschreiben Sie die Hauptidee der Interpretation der Entfernung von der Gruppe der Merkmalsvektoren, die in diesem Kapitel vorgeschlagen wurde.

5.8 Schlussfolgerung

In nächster Zeit wird es sicherlich mehr Fälle geben, in denen Patienten das Recht erhalten, ihren Herzstatus zu testen. Elektrokardiographische Werkzeuge in Handygröße und einfacher Zugang zu Analyse-Cloud-Servern werden entscheidend für die Bereitstellung eines personalisierten Medizinansatzes für die Patienten.

Cloud-Plattformen zur Analyse von Elektrokardiogrammen mit wenigen Ableitungen werden sich allmählich von der stark vereinfachten Verarbeitung von nur einigen Rhythmusstörungen zu einer ausgefeilteren Analyse, zu Dienstleistungen und Diagnosen entwickeln. Die Entscheidungsfindungsentwicklungen, die künstliche Intelligenz als ihre Basis verwenden, werden Schätzungen für alle liefern. Ihre Ziele sind schwere kardiovaskuläre Risiken sowohl in der Allgemeinbevölkerung als auch insbesondere in bestimmten Kohorten, wie denen mit Diabetes, Prädiabetes und Herzinsuffizienz-Patienten. Es werden Versuche unternommen, die mächtigste Barriere für die Einbindung von maschinellem Lernen – ihren Black-Box-Charakter, d. h. die Schwierigkeit, insbesondere für Kliniker, die Darstellung von Daten, die zur Diagnose führen – wahrzunehmen und den Ergebnissen darüber hinaus zu vertrauen. Auf der Grundlage von Elektrokardiogramm- und Herzfrequenzvariabilitätsanalysen werden individualisierte Empfehlungen hinsichtlich Häufigkeit, Dauer, Intensität, Art und Gesamtmenge der körperlichen Aktivität sowie detaillierte Ernährungsempfehlungen gegeben.

Andererseits wird das klassische 12-Kanal-Elektrokardiogramm noch lange die am häufigsten verwendete Technologie in der klinischen Kardiologie bleiben. Der Fortschritt in der biomedizinischen Informatik und Signalverarbeitung und die verfügbare Rechenleistung bieten faszinierende neue Optionen für die Elektrokardiogrammanalyse, die für alle Bereiche der Kardiologie relevant sind. Die erfolgreiche Implementierung von Künstliche-Intelligenz-Technologien für die Analyse des routinemäßigen 12-Kanal-Elektrokardiogramms ist ein entscheidender Schritt, um die Leistungsfähigkeit der Elektrokardiographie weiter zu erhöhen. In dieser Hinsicht ermöglicht die enorme Menge an digitalisierten Elektrokardiogrammaufzeichnungen von erschwinglichen und weit verbreiteten Geräten das Wachstum von datengetriebenen, maschinellen Lernansätzen der künstlichen Intelligenz. Die ausgefeilten Algorithmen, die die Trainingsdaten benötigen, werden sowohl auf den Geräten als auch als Cloud-basierte Dienste verfügbar sein, die die automatisierte Diagnose, Vorhersage und Prävention von Herz-Kreislauf-Erkrankungen unterstützen und das menschliche Wohlbefinden fördern.