Zusammenfassung
Methodische Herausforderungen bei der Evaluation digitaler Interventionen (DI) sind für die Versorgungsforschung allgegenwärtig. Die Arbeitsgruppe Digital Health des Deutschen Netzwerks Versorgungsforschung (DNVF) hat in einem zweiteiligen Diskussionspapier diese Herausforderungen dargestellt und diskutiert. Im ersten Teil wurden begriffliche Abgrenzungen sowie die Entwicklung und Evaluation von DI thematisiert. In diesem zweiten Teil wird auf Outcomes, das Reporting von Ergebnissen, die Synthese der Evidenz sowie die Implementierung von DI eingegangen. Lösungsansätze und zukünftige Forschungsbedarfe zur Adressierung dieser Herausforderungen werden diskutiert.
Schlüsselwörter: Digital Health, digitale Interventionen, Evaluation, Implementierung, Versorgungsforschung, E-Health
Abstract
The methodological challenges of evaluating digital interventions (DI) for health services research are omnipresent. The Digital Health Working Group of the German Network for Health Services Research (DNVF) presented and discussed these challenges in a two-part discussion paper. The first part addressed challenges in definition, development and evaluation of DI. In this paper, which represents the second part, the definition of outcomes, reporting of results, synthesis of evidence, and implementation are addressed as methodological challenges of DI. Potential solutions are presented and the need to address these challenges in future research are discussed.
Key words: digital health, digital interventions, evaluation, implementation, health services research, e-health
Einleitung
Bei der Evaluation von DI ergeben sich zahlreiche epistemologische und wissenschaftsethische Herausforderungen, die in die zentralen Betätigungsfelder der Versorgungsforschung fallen 1 2 . Auch neue Analysemethoden (z. B. Maschinelles Lernen) sowie Datentypen und -quellen (z. B. digitale Biomarker) sollten aus Sicht der Versorgungsforschung Gegenstand einer methodischen Auseinandersetzung im Rahmen der Evaluation von DI sein. Zudem spiegeln sich zahlreiche methodische Herausforderungen im Rahmen der Evidenzgenerierung zu DI in Schwierigkeiten bei der systematischen Analyse verfügbarer Evidenz wider, die u. a. durch die Heterogenität der Studienlage von DI entsteht 3 4 .
Die Arbeitsgruppe Digital Health des Deutschen Netzwerks Versorgungsforschung (DNVF) hat einen Diskussionsartikel in zwei Teilen verfasst, um ausgewählte Herausforderungen bei der Evaluation von DI zu benennen und Lösungsansätze aufzuzeigen. Im ersten Teil des Diskussionsartikels wurde auf die spezifischen Merkmale von DI eingegangen sowie auf die Herausforderungen bei der partizipativen Entwicklung und der Evaluation von DI [Ref]. Im zweiten Teil des Artikels werden die Auswahl von Outcomes und das Reporting von Studienergebnissen thematisiert ebenso wie die Synthese der Evidenz und die Implementierung von DI in den Versorgungsalltag.
Outcomes digitaler Interventionen
Die Auswahl von Outcomes für die Evaluation von DI hängt von verschiedenen Faktoren ab, wie etwa der medizinischen Indikation, der technologischen Umsetzung und dem Reifegrad der zu evaluierenden DI sowie den regulatorischen Anforderungen 5 .
So verfolgt etwa das in dem ersten Teil dieses Artikels beschriebene NICE-Framework (siehe Abb. 1 ) bei der Auswahl der Outcomes das Ziel, der Heterogenität der DI durch die Gliederung von Evidenzebenen und eine Aufteilung in „Minimum Evidence“ und „Best-Practice-Standards“ gerecht zu werden 6 . Anhand der Funktionen einer DI erfolgt in dem NICE-Framework eine Gegenüberstellung von Risiko und Nutzen für die Anwender:innen, was sich ebenso bei der Evaluation widerspiegeln muss. Je höher also das Risiko der DI, umso höher sind die methodischen Anforderungen, die für den Nutzennachweis erfüllt werden müssen 6 .
Abb. 1.

Evidenzstufen des NICE-Framework (eigene Darstellung) 6 .
Für jede der drei Ebenen des NICE-Framework werden Empfehlungen für die Auswahl der Outcomes gegeben. Bei den Ebenen A und B liegt der Fokus auf der Systemeffizienz und ab Ebene C auf der Demonstration der klinischen Effektivität. Diese soll auf Ebene C mindestens durch Änderungen des gesundheitsfördernden Verhaltens, des Selbstmanagements oder der Nutzer*innenzufriedenheit, erhoben jeweils durch Patient Reported Outcomes Measurements (PROM) und Patient Reported Experience Measurements (PREM), nachgewiesen und im besten Fall um die gesundheitsbezogene Lebensqualität oder den Schweregrad der Symptome ergänzt werden 6 . Auf der Ebene C werden zu den unterschiedlichen DI jeweils unterschiedliche Mindestanforderungen definiert und der Einsatz weiterer krankheitsspezifischer und klinischer Outcomes empfohlen. Unabhängig von der Evidenzebene sind validierte Messinstrumente zu bevorzugen 6 .
Ein weiterer Ansatz für die Auswahl der Outcomes ergibt sich aus dem Prinzip der reifegradabhängigen Evaluation 7 8 . Hierbei wird der Produktlebenszyklus der DI in mehrere Phasen eingeteilt und relevanten Outcomes zugeordnet. Das Design and Evaluation of Digital Health Intervention-Framework gliedert den Entwicklungsprozess (Produktlebenszyklus) einer DI in vier Phasen 7 . In frühen Phasen stehen Outcomes wie die Patient*innensicherheit, die Usability sowie die Servicequalität im Fokus. Des Weiteren stehen für die Messung der Servicequalität von Telemedizinanwendungen in späteren Phasen der Evaluation bereits eine Vielzahl validierter Messinstrumente in Form von PREM zur Verfügung 9 . In späteren Phasen sollen u. a. die Bewertung der Effektivität, der erwartbare Nutzen sowie der Adhärenz in die Entwicklung mit einfließen 7 .
Sofern es sich bei einer DI um ein Medizinprodukt handelt, richtet sich die Wahl der Outcomes nach der medizinischen Zweckbestimmung der DI [MEDDEV 2.7/4] 10 . Diese ergibt sich aus der medizinischen Indikation (Diagnose), den Charakteristika der Zielgruppe (z. B. Alter, Geschlecht) und dem Ziel der Intervention (Diagnostik, Monitoring, Therapie, etc.). Im Rahmen der klinischen Bewertung müssen die entsprechenden Outcomes so benannt werden, dass ein positiver Effekt analog zur medizinischen Zweckbestimmung nachweisbar wäre. Relevante Outcomes können u. a. die Mortalität und Morbidität, die gesundheitsbezogene Lebensqualität, die Sensitivität und Spezifität von Diagnoseverfahren, aber auch mögliche Nebenwirkungen und Gefährdungen zum Zwecke der Risiko-Nutzenbewertung sein [MEDDEV 2.7/4] 10 .
Mit dem Inkrafttreten des Digitale-Versorgung-Gesetzes (DVG) wurde erstmals der Begriff der „positiven Versorgungseffekte“ in das SGB V eingeführt. Neben klassischen Endpunkten im Bereich des medizinischen Nutzens, wie etwa die Verbesserung des Gesundheitszustands oder der Lebensqualität, wurden erstmals in Deutschland sogenannte patientenrelevante Struktur- und Verfahrensverbesserungen (PSVV) berücksichtigt, wie etwa die optimierte Koordination der Behandlungsabläufe, die Ausrichtung der Behandlung an Leitlinien und anerkannten Standards sowie Gesundheitskompetenz oder Adhärenz. PSVV und medizinischer Nutzen werden in der Bewertung des Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) gleichrangig behandelt 11 . Im DiGA-Leitfaden des BfArM werden nur vereinzelt Beispiele für Messinstrumente zur Bestimmung der PSVVs aufgeführt, wie z. B. der Einsatz von validierten Adhärenz-Scores bei Medikamenteneinnahme (z. B. Morisky-Score 12 ).
Derzeit besteht eine hohe Heterogenität bei der Auswahl an Outcomes 13 . Hier fehlt es an einem Standardset von Outcomes, um eine bessere Vergleichbarkeit der Effektivität ähnlicher DI zu gewährleisten und gleichzeitig heterogen Patient* innencharakteristika gerecht zu werden 14 . Neben den Studieninformationen zu aktuell gelisteten Digitalen Gesundheitsanwendungen (DiGA) im DiGA-Verzeichnis, zeigen auch systematische Übersichtsarbeiten, dass bei DI trotz vergleichbarer Populationen und Funktionalitäten, unterschiedliche Outcomes und insbesondere unterschiedliche Messinstrumente genutzt werden 15 . Das führt in vergleichenden Übersichtsarbeiten fast zwangsläufig zu einer hohen Heterogenität bei gepoolten Effektschätzern 16 . Um diese Lücke zu schließen, besteht die Möglichkeit, Core Outcome Sets (COS) zu verwenden. Diese bestehen aus einem konsentierten Minimalset an Outcome-Domänen (inhaltliche Ebene) und einem konsentierten Set an Messinstrumenten (methodische Ebene), die in jeder klinischen Studie mit einer vergleichbaren Intervention und Zielpopulation standardisiert gemessen und berichtet werden sollten 17 . Qualitativ hochwertige COS wurden bereits systematisch entwickelt. Dies bedeutet, dass sie durch eine initiale Evidenzsynthese zur Identifikation von Outcomes mit einem nachfolgenden Delphi-Verfahren (inklusive Konsensprozess) entwickelt wurden, welcher alle relevanten Stakeholder einschließt und eine finale Liste an relevanten Outcomes samt Messinstrumenten konsolidiert beinhaltet 17 18 . Aktuell ist bereits eine Vielzahl an COS verfügbar, z. B. durch die COMET Initiative (www.comet-initiative.org) 18 . Ihre Übertragbarkeit auf DI ist jedoch bisher weitgehend unerforscht. Eine Entwicklung neuer oder Erweiterung bestehender COS zur Evaluation von DI kann zu einer verbesserten Vergleichbarkeit von Studienergebnissen führen 18 19 .
Reporting von Studienergebnissen
Eine hochwertige methodische Planung und Durchführung von Evaluationen zu DI ist keine Garantie, dass die Ergebnisse qualitativ hochwertig berichtet werden 20 . Grundsätzlich ist eine Berichterstattung von Studienergebnissen, die transparent, vollständig und präzise ist, aus verschiedenen Gründen relevant. So dienen Forschungsergebnisse als Grundlage für zukünftige Forschungsarbeiten auf dem Gebiet der DI 21 22 oder um versorgungsrelevante Entscheidungen zu treffen 20 . Ebenso ist ein transparentes Reporting von Studienergebnissen zur Information von Bürger*innen relevant, da sie dadurch befähigt werden können, Entscheidungen hinsichtlich ihrer eigenen Gesundheit zu treffen 22 . Darüber hinaus birgt die unzureichende oder selektive Berichterstattung von Studienergebnissen das Risiko, dass falsche oder schädliche Ergebnisse in neue Studien oder versorgungsrelevante Entscheidungen einfließen 17 .
Aktuell ist zu konstatieren, dass die Berichtsqualität von Studienergebnissen zu DI verbesserungsbedürftig ist 23 . Beispielsweise werden nicht alle Komponenten von DI vollständig beschrieben 24 oder notwendige Komponenten und Inhalte in Gänze nicht in die Berichterstattung mit einbezogen 25 . Zudem wird moniert, dass die theoretische Grundlage von Interventionen unzureichend berichtet wird 26 .
Zur Steigerung der Berichtsqualität hat sich die Anwendung von Reporting Guidelines etabliert. Diese stellen Minimalkriterien für die zu berücksichtigenden Inhalte von Ergebnisberichten bereit 27 . Einen hohen Bekanntheitsgrad hat das CONSORT-Statement für das Berichten von randomisiert kontrollierten Studien (RCT) 28 .
Auch für DI stehen Reporting Guidelines zur Verfügung, wie etwa die „Guidelines for reporting of health interventions using mobile phones: mobile health (mHealth) evidence reporting and assessment (mERA)“ 23 . Das mERA beinhaltet 16 Items, die Minimalkriterien für die Berichterstattung von Studien zu mHealth-Interventionen darstellen und unabhängig von dem gewählten Studiendesign anwendbar sind. Zudem existiert seit Längerem das CONSORT-EHEALTH-Statement, welches als Adaption des CONSORT-Statements für das Reporting von RCT zu DI entwickelt wurde 29 .
Folglich ist wünschenswert, dass diese Instrumente konsequent angewendet und weiterentwickelt werden 30 . Des Weiteren ist es relevant, dass die Ergebnisse von Studien zu DI generell veröffentlicht werden. Bisher findet oftmals nach einer Periode von fünf Jahren noch immer keine Veröffentlichung der Ergebnisse registrierter Studien statt 31 . Folgerichtig ist neben der qualitativ hochwertigen Berichterstattung sowohl eine vorhergehende Registrierung der Methodik als auch eine vollständige, transparente und ergebnisunabhängige Veröffentlichung notwendig, um einen Publikationsbias zu verhindern 32 . Eine zu diskutierende Möglichkeit wäre eine Verpflichtung zur Registrierung von Studien (z. B. DRKS), sowie die verpflichtende Veröffentlichung von Studienprotokollen und Studienergebnissen. Neben dem wissenschaftlichen Veröffentlichungsprozess sollten neu verfügbare ‘Informationsrepositorien‘, wie das DiGA-Verzeichnis oder einschlägige Preprint-Server (etwa MedRxiv), besser genutzt werden. Dabei sollten – zugunsten einer hochwertigen Berichtsqualität und Transparenz – die herstellerseits zur Verfügung gestellten Informationen im Rahmen von Datenbanken, wie dem DiGA-Verzeichnis, auf Vollständigkeit und Aktualität überprüft werden.
Evidenzbewertung digitaler Interventionen
Wie im ersten Teil dieses Diskussionsartikels hervorgehoben, ist die Qualität der zu DI durchgeführten und veröffentlichten Studien heterogen, was die Vergleichbarkeit der Studienergebnisse sowie die Evidenzbewertung und -synthese erschwert. Neben der Standardisierung und konsensbasierten Auswahl von Outcomes können weitere Maßnahmen eine Vergleichbarkeit von Effekten über Studiengrenzen hinweg unterstützen. Zur Bewertung systematisierter oder mathematisch gepoolter Studienergebnisse, z. B. im Rahmen von Meta-Analysen, werden etablierte Verfahren wie GRADE (Grading of Recommendations, Assessment, Development and Evaluation) angewandt. GRADE bewertet die Qualität der Evidenz bzw. das Vertrauen in den Effektschätzer 33 . Dieses Verfahren ermöglicht die Outcome-spezifische Bewertung der verfügbaren Evidenz mit dem Ziel der Empfehlung im Rahmen von systematischen Reviews und Leitlinien 34 .
Bei der GRADE-Beurteilung gepoolter Studienergebnisse zur Wirksamkeit von DI stellen die im ersten Teil des Artikels beschriebenen Eigenschaften, v. a. die Charakterisierung von DI als heterogene und oft komplexe Interventionen mit mehreren Komponenten, eine Herausforderung für die Bewertung der Güte der Evidenz dar. Die gepoolten Studienergebnisse zur Wirksamkeit von DI subsumieren oft multimodale und individualisierte Anwendungen, welche trotz erfolgter Subgruppenanalyse nur bedingt vergleichbar sind. Dies führt zwangsläufig zu Punktabzügen bei der Bewertung der „Indirectness“, da dort die Vergleichbarkeit u. a. der gemeinsam betrachteten Interventionen bewertet wird. Zudem enthält GRADE eine Risk-of-Bias-Bewertung nach dem Cochrane risk-of-bias tool for randomized trials (RoB2) 34 , wodurch etwa die Schwierigkeiten mit der Verblindung bei RCTs zu DI sichtbar werden. Insbesondere durch eine nicht umsetzbare oder schwer aufrecht zu erhaltende Verblindung führt die Bewertung mit RoB2 im Rahmen von GRADE oft zu Abzügen 14 . In der Folge ist es zu erwarten, dass eine Empfehlung für DI im Rahmen von Leitliniennovellierungen herabgestuft wird. Hier besteht Handlungsbedarf in der Prüfung und ggf. Entwicklung eines neuen Instrumentariums zur Bewertung gepoolter Studienergebnisse zur Wirksamkeit DI – auch um Entscheidungsträger*innen im Gesundheitswesen die Empfehlung einzelner Anwendungen zu erleichtern. Eine weitere Möglichkeit, eine bessere Vergleichbarkeit von Studien über deren Grenzen hinweg zu unterstützen, besteht in der Verwendung bereits verfügbarer Taxonomien. Besonders empirisch entwickelte Taxonomien erlauben eine Standardisierung von Anwendungstypen und Funktionalitäten und unterstützen damit die Nutzenbewertung von DI unter Berücksichtigung der beschriebenen Heterogenität.
Implementierung von digitalen Interventionen
Konnte die Wirksamkeit für eine DI in einem Versorgungskontext nachgewiesen werden, ist für ihre Verstetigung ein qualitätsgesicherter Implementierungsprozess essentiell. Hierbei können zentrale Komponenten der Implementierungsforschung unterstützen, einer im deutschen Kontext noch recht jungen Disziplin 35 .
Die Initiierung eines Implementierungsprozesses empfiehlt sich bereits im Entwicklungsstadium durch Verwendung eines Stakeholder-Centered Designs, um DI dem Versorgungskontext entsprechend nicht als versorgungsfernes Produkt, sondern als sog. „Technology-Enabled Services“ zu entwickeln, zu evaluieren und zu implementieren. Dies ist eine Grundlage, um sowohl die Akzeptanz als auch die Integration der DI in die Routineversorgung zu gewährleisten 36 .
Die vermehrte Aufmerksamkeit, die die Implementierungsforschung erfährt, ist u. a. darauf zurückzuführen, dass es noch immer bis zu 20 Jahre dauert, evidenzbasierte Ansätze in die Routineversorgung zu implementieren 37 . Dies ist auch deshalb bemerkenswert, weil auch bereits länger verfügbare Rahmenmodelle im Bereich der Entwicklung und Evaluation von komplexen Interventionen (z. B. MRC-Framework) die Bedeutung von Implementierungsstrategien hervorheben 38 . Solche Rahmenmodelle für die Implementierung reichen von individuellen behavioristischen, bis hin zu organisationalen und ökonomischen Veränderungen, die dem Implementierungsprozess von evidenzbasierten Innovationen zugrunde gelegt werden können 39 . Dies scheint im Bereich von DI besonders relevant, da auch hier Evidenz zur Wirksamkeit bislang nicht ohne Weiteres zu einer nachhaltigen Implementierung in die Versorgung führt 36 . Deshalb wird die Notwendigkeit der Entwicklung und Evaluation von Implementierungsstrategien von Expert*innen besonders betont 40 . Dabei ist die unter Beteiligung von Stakeholdern und Nutzer*innen generierte Evidenz zu Barrieren und Erfolgsfaktoren der Implementierung entscheidend für die Entwicklung und Auswahl effektiver Implementierungsstrategien. Ein implementierungswissenschaftliches Modell, welches diese Voraussetzungen in besonderem Maße für die Implementierung von DI berücksichtigt, ist das empirisch entwickelte „non-adoption, abandonment, scale-up, spread, and sustainability framework (NASSS)“ 41 . Dieses kann im Stadium des Designs von DI sowie zu deren Skalierung und Markteinführung eingesetzt werden sowie zur Identifikation von DI mit begrenzter Chance auf Skalierung und Markteinführung und zur Analyse von fehlgeschlagenen Implementierungsprozessen 41 .
Neben der wissenschaftlichen Auseinandersetzung zu effektiven Implementierungsstrategien ist es notwendig, regulatorische Aspekte für die Implementierung zu beschreiben. Abhängig von der Risikoklasse der Medizinprodukte in Form von DI existieren unterschiedliche Zugangswege zum ersten Gesundheitsmarkt. Bei diagnostischen und therapeutischen DI können Zugangswege als Neue Untersuchungs- und Behandlungsmethode (NUB) (§ 137 c SGB V) in der stationären Versorgung, krankenhausindividuelle Anträge auf ein Zusatzentgelt oder ein Antrag beim G-BA auf Zulassung als Teil einer NUB gemäß § 135 SGB V in der ambulanten Versorgung einschlägig sein.
Handelt es sich bei einer DI um ein Hilfsmittel im Sinne des § 33 SGB V, kann ein Antrag beim GKV Spitzenverband auf Aufnahme ins Hilfsmittelverzeichnis gestellt werden. Bei DI niedriger Risikoklasse (I bis II a), gemäß des § 33a SGB V, der Digitalen Gesundheitsanwendungen Verordnung (DiGAV), wird mit einer vorläufigen oder dauerhaften Aufnahme in das BfArM Register gemäß § 139e SGB V bei Nachweis positiver Versorgungseffekte ein Zugangsweg in den ersten Gesundheitsmarkt geschaffen: Schließlich können evidenzbasierte DI niedriger Risikoklasse auch ihren Weg in die ambulante Versorgung über selektivvertragliche Lösungen gemäß § 140 a SGB V erhalten. Ein flächendeckender Zugangsweg für die Versicherten ist damit jedoch nicht gewährleistet. Wenn Innovationsfondsprojekte gemäß § 92a SGB V DI positive Nutzeneffekte liefern konnten, sollen diese in die Regelversorgung übernommen werden – allerdings bleiben Vergütungsmöglichkeiten noch ungeklärt.
Weiter zu berücksichtigen sind Digitale Pflegeanwendungen (DiPA) nach § 40a SGB XI, digitale Anwendungen für Rehabilitand*innen nach Teilhabestärkungsgesetz §§ 42 und 47a SGB IX sowie digitalen Gesundheitsanwendungen, die nach dem GKV Handlungsleitfaden Prävention gemäß § 20 SGB V zertifiziert sind. Ferner sind DI für den Aufbau digitaler Gesundheitskompetenz gemäß § 20k SGB V zu beachten.
Auf Basis dieser vielfältigen Zugangswege, Richtlinien und Verordnungen lässt sich die Bedeutung der rechtlichen, versorgungsprogramm- und vergütungstechnischen Kontextfaktoren für eine nachhaltige Implementierung von DI unschwer erkennen. Umso wichtiger ist es, im Rahmen der Implementierungsforschung mittelfristige und Langzeit-Effekte zu Akzeptanz, Skalierung und Erreichen der – in Wirksamkeitsstudien belegten – Outcomes von DI in realen Versorgungskontexten zu beobachten.
Schlussbetrachtung
Ziel dieses zweiten Teils des Artikels war es, aus der Perspektive der Versorgungsforschung zentrale Herausforderungen zu diskutieren, die im Rahmen der Evaluation von DI entstehen. Hier wurde der Fokus auf die Definition relevanter und aussagekräftiger Outcomes, das Reporting von Ergebnissen sowie der Evidenzbewertung und der Implementierung gelegt. Es wurden zudem Lösungsansätze und zukünftige Forschungsbedarfe aufgezeigt.
Bedingt durch den technologischen Fortschritt eröffnen sich innovative Wege, versorgungsrelevante Lösungen zu entwickeln. Dabei ist die Versorgungsforschung gefordert, sich aus einer wissenschaftlichen und patientenzentrierten Perspektive an den Innovationsprozessen zu beteiligen.
Footnotes
Interessenkonflikt Die Autorinnen/Autoren geben an, dass kein Interessenkonflikt besteht.
Literatur
- 1.Kramer U, Borges U, Fischer F et al. DNVF-Memorandum – Gesundheits- und Medizin-Apps (GuMAs) Das Gesundheitswesen. 2019;81:e154–e170. doi: 10.1055/s-0038-1667451. [DOI] [PubMed] [Google Scholar]
- 2.Vollmar H, Kramer U, Müller H et al. Digitale Gesundheitsanwendungen – Rahmenbedingungen zur Nutzung in Versorgung, Strukturentwicklung und Wissenschaft – Positionspapier der AG Digital Health des DNVF. Das Gesundheitswesen. 2017;79:1080–1092. doi: 10.1055/s-0043-122233. [DOI] [PubMed] [Google Scholar]
- 3.Kolasa K, Kozinski G. How to Value Digital Health Interventions? A Systematic Literature Review. Int J Environ Res Pu. 2020;17:2119. doi: 10.3390/ijerph17062119. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 4.Michie S, Yardley L, West R et al. Developing and Evaluating Digital Interventions to Promote Behavior Change in Health and Health Care: Recommendations Resulting From an International Workshop. J Med Internet Res. 2017;19:e232. doi: 10.2196/jmir.7126. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 5.Taylor K I, Staunton H, Lipsmeier F et al. Outcome measures based on digital health technology sensor data: data- and patient-centric approaches. Npj Digital Medicine. 2020;3:97. doi: 10.1038/s41746-020-0305-8. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 6.NICE. Evidence standards framework for digital health technologies. 2019. https://www.nice.org.uk/corporate/ecd7
- 7.Kowatsch T, Otto L, Harperink S et al. A design and evaluation framework for digital health interventions. Information Technology. 2020;61:253–263. doi: 10.1515/itit-2019-0019. [DOI] [Google Scholar]
- 8.Kidholm K, Ekeland A G, Jensen L K et al. A Model For Assessment Of Telemedicine Applications: Mast. Int J Technol Assess. 2012;28:44–51. doi: 10.1017/s0266462311000638. [DOI] [PubMed] [Google Scholar]
- 9.Hajesmaeel-Gohari S, Bahaadinbeigy K. The most used questionnaires for evaluating telemedicine services. Bmc Med Inform Decis. 2021;21:36. doi: 10.1186/s12911-021-01407-y. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 10.Hastenteufel M, Renaud S. Software als Medizinprodukt, Entwicklung und Zulassung von Software in der Medizintechnik. 2019:7–40. doi: 10.1007/978-3-658-26488-8_2. [DOI] [Google Scholar]
- 11.BfArM. Das Fast-Track-Verfahren für digitale Gesundheitsanwendungen (DiGA) nach § 139e SGB VEin Leitfaden für Hersteller, Leistungserbringer und Anwender. 2020; Im Internet:https://www.bfarm.de/DE/Medizinprodukte/DVG/_node.html
- 12.Morisky D E, Green L W, Levine D M. Concurrent and Predictive Validity of a Self-reported Measure of Medication Adherence. Med Care. 1986;24:67–74. doi: 10.1097/00005650-198601000-00007. [DOI] [PubMed] [Google Scholar]
- 13.Knapp A, Harst L, Hager S et al. Use of Patient-Reported Outcome Measures and Patient-Reported Experience Measures Within Evaluation Studies of Telemedicine Applications: Systematic Review. J Med Internet Res. 2021;23:e30042. doi: 10.2196/30042. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 14.Timpel P, Harst L. Research Implications for Future Telemedicine Studies and Innovations in Diabetes and Hypertension – A Mixed Methods Study. Nutrients. 2020;12:1340. doi: 10.3390/nu12051340. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 15.Scheibe M, Knapp A, Schmitt J. Die Bedeutung patientenrelevanter Struktur- und Verfahrensverbesserungen nach DiGAV im Rahmen bisheriger Evaluationsstudien zu telemedizinischen Anwendungen. Ergebnisse eines systematischen Reviews. 2021.
- 16.Timpel P, Oswald S, Schwarz PE H et al. Mapping the Evidence on the Effectiveness of Telemedicine Interventions in Diabetes, Dyslipidemia, and Hypertension: An Umbrella Review of Systematic Reviews and Meta-Analyses. J Med Internet Res. 2020;22:e16791. doi: 10.2196/16791. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 17.Deckert S, Sabatowski R, Schmitt J et al. Klinische Studien zur multimodalen Schmerztherapie. Der Schmerz. 2016;30:537–548. doi: 10.1007/s00482-016-0123-8. [DOI] [PubMed] [Google Scholar]
- 18.Williamson P R, Altman D G, Bagley H et al. The COMET Handbook: version 1.0. Trials. 2017;18:280. doi: 10.1186/s13063-017-1978-4. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 19.Schlieter H, Timpel P, Otto L et al. Digitale Gesundheitsanwendungen – Forderungen für deren Entwicklung, Implementierung und begleitende Evaluation. Monit Versorgungsforschung. 2021;14:76–80. doi: 10.24945/mvf.02.21.1866-0533.2301. [DOI] [Google Scholar]
- 20.Johansen M, Thomsen S F. Guidelines for Reporting Medical Research: A Critical Appraisal. Int Sch Res Notices. 2016;2016:1.346026E6. doi: 10.1155/2016/1346026. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 21.Hoffmann T C, Glasziou P P, Boutron I et al. Better reporting of interventions: template for intervention description and replication (TIDieR) checklist and guide. Bmj. 2014;348:g1687–g1687. doi: 10.1136/bmj.g1687. [DOI] [PubMed] [Google Scholar]
- 22.Glasziou P, Altman D G, Bossuyt P et al. Reducing waste from incomplete or unusable reports of biomedical research. Lancet. 2014;383:267–276. doi: 10.1016/s0140-6736(13)62228-x. [DOI] [PubMed] [Google Scholar]
- 23.Agarwal S, Lefevre A E, Labrique A B. A Call to Digital Health Practitioners: New Guidelines Can Help Improve the Quality of Digital Health Evidence. Jmir Mhealth Uhealth. 2017;5:e136. doi: 10.2196/mhealth.6640. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 24.Warner M M, Kelly J T, Reidlinger D P et al. Reporting of Telehealth-Delivered Dietary Intervention Trials in Chronic Disease: Systematic Review. J Med Internet Res. 2017;19:e410. doi: 10.2196/jmir.8193. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 25.Lalloo C, Shah U, Birnie K A et al. Commercially Available Smartphone Apps to Support Postoperative Pain Self-Management: Scoping Review. Jmir Mhealth Uhealth. 2017;5:e162. doi: 10.2196/mhealth.8230. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 26.Lunde P, Nilsson B B, Bergland A et al. The Effectiveness of Smartphone Apps for Lifestyle Improvement in Noncommunicable Diseases: Systematic Review and Meta-Analyses. J Med Internet Res. 2018;20:e162. doi: 10.2196/jmir.9751. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 27.Logullo P, MacCarthy A, Kirtley S et al. Reporting guideline checklists are not quality evaluation forms: they are guidance for writing. Heal Sci Reports. 2020;3:e165. doi: 10.1002/hsr2.165. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 28.Shamseer L, Hopewell S, Altman D G et al. Update on the endorsement of CONSORT by high impact factor journals: a survey of journal “Instructions to Authors” in 2014. Trials. 2016;17:301. doi: 10.1186/s13063-016-1408-z. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 29.Eysenbach G, Group C-E. CONSORT-EHEALTH: Improving and Standardizing Evaluation Reports of Web-based and Mobile Health Interventions. J Med Internet Res. 2011;13:e126. doi: 10.2196/jmir.1923. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 30.Kernebeck S, Kramer U, Redaelli M Bewerten, aber wie? – Kriterien für die Evaluation und das Reporting von Studien zu Gesundheits- und Medizin-Apps. Monitor Versrogungsforschung. 2021.
- 31.Al-Durra M, Nolan R P, Seto E et al. Nonpublication Rates and Characteristics of Registered Randomized Clinical Trials in Digital Health: Cross-Sectional Analysis. J Med Internet Res. 2018;20:e11924. doi: 10.2196/11924. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 32.Arnold K, Scheibe M, Müller O et al. Principles for the evaluation of telemedicine applications: Results of a systematic review and consensus process. Zeitschrift Für Evidenz Fortbildung Und Qual Im. Gesundheitswesen. 2016;117:9–19. doi: 10.1016/j.zefq.2016.04.011. [DOI] [PubMed] [Google Scholar]
- 33.Joerg JM, Gero L, Matthias P et al. GRADE-Leitlinien: 3. Bewertung der Qualität der Evidenz (Vertrauen in die Effektschätzer). Zeitschrift Für Evidenz Fortbildung Und Qual Im. Gesundheitswesen. 2012;106:449. doi: 10.1016/j.zefq.2012.06.013. [DOI] [PubMed] [Google Scholar]
- 34.Cochrane Collaboration.Cochrane Handbook for Systematic Reviews of Interventions. 2011; Im Internet:https://training.cochrane.org/handbook
- 35.Vollmar H C, Santos S, Jong Ade et al. Wie gelangt Wissen in die Versorgung? Bundesgesundheitsblatt – Gesundheitsforschung – Gesundheitsschutz. 2017;60:1139–1146. doi: 10.1007/s00103-017-2612-z. [DOI] [PubMed] [Google Scholar]
- 36.Mohr D C, Weingardt K R, Reddy M et al. Three Problems With Current Digital Mental Health Research … and Three Things We Can Do About Them. Psychiatr Serv. 2017;68:427–429. doi: 10.1176/appi.ps.201600541. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 37.Proctor E K, Landsverk J, Aarons G et al. Implementation Research in Mental Health Services: an Emerging Science with Conceptual, Methodological, and Training challenges. Adm Policy Ment Hlth. 2009;36:24–34. doi: 10.1007/s10488-008-0197-4. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 38.Craig P, Dieppe P, Macintyre S et al. Developing and evaluating complex interventions: the new Medical Research Council guidance. Bmj. 2008;337:a1655. doi: 10.1136/bmj.a1655. [DOI] [PMC free article] [PubMed] [Google Scholar]
- 39.Wirtz M, Bitzer E, Albert U-S et al. DNVF-Memorandum III – Methoden für die Versorgungsforschung, Teil 4 – Konzept und Methoden der organisationsbezogenen Versorgungsforschung. Das Gesundheitswesen. 2019;81:e82–e91. doi: 10.1055/a-0862-0588. [DOI] [PubMed] [Google Scholar]
- 40.Sampson UK A, Chambers D, Riley W et al. Implementation Research The Fourth Movement of the Unfinished Translation Research Symphony. Global Hear. 2016;11:153–158. doi: 10.1016/j.gheart.2016.01.008. [DOI] [PubMed] [Google Scholar]
- 41.Greenhalgh T, Wherton J, Papoutsi C et al. Beyond Adoption: A New Framework for Theorizing and Evaluating Nonadoption, Abandonment, and Challenges to the Scale-Up, Spread, and Sustainability of Health and Care Technologies. J Med Internet Res. 2017;19:e367. doi: 10.2196/jmir.8775. [DOI] [PMC free article] [PubMed] [Google Scholar]
