Intelligente Computer errechnen die Giftigkeit von neuen Chemikalien anhand von Daten einer riesigen Datenbank. Das geniale System hat ein Team um den Toxikologen Dr. Dr. med. Thomas Hartung von der Johns Hopkins Bloomberg School of Public Health in Baltimore entwickelt.
Facebook, Google und Co. nutzen Computer-Algorithmen, um gigantische Datenmengen der Internetnutzer zu analysieren und Prognosen zu erstellen, was uns gefällt, was uns dann als Newsfeed oder Werbung vorgesetzt wird. Jetzt könnte diese so genannte künstliche Intelligenz helfen, Hunderttausende Tierversuche zu verhindern.
Millionen Tiere wie Mäuse, Kaninchen, Hunde und Affen müssen jedes Jahr in Laboren auf der ganzen Welt für Giftigkeitstests leiden und sterben. Allein in Deutschland sind es rund 230.000 Tiere pro Jahr. Teilweise sind diese Tierversuche angeblich „zum Schutz der Verbraucher“ gesetzlich vorgeschrieben. Dabei sind sie nicht nur extrem teuer und bedeuten für die Tiere ein immenses Leid, sondern ihre Ergebnisse sind aufgrund der schlechten Reproduzierbarkeit und Übertragbarkeit auf den Menschen mehr als fraglich.
An der Johns Hopkins Bloomberg School of Public Health in Baltimore hat sich ein Team rund um den Toxikologen Dr. Dr. med. Thomas Hartung diesem Problem angenommen. 2016 wurde dafür bereits die weltweit größte maschinenlesbare toxikologische Datenbank entwickelt. Diese enthält Informationen über Strukturen, Eigenschaften und möglichen Wirkungen von 10.000 chemischen Verbindungen, die auf 800.000 toxikologischen Tests, d.h. überwiegend Tierversuchsstudien, basieren.
Jetzt wurde diese Datenbank durch Algorithmen des maschinellen Lernens erweitert, um die Daten besser lesen zu können und eine „Karte“ bekannter chemischer Strukturen und der damit verbundenen giftigen Eigenschaften zu erstellen. Auch Vergleiche mit Chemikalien ähnlicher Struktur mit bekannter Wirkung werden herangezogen. Damit ist das Computerprogramm innerhalb kürzester Zeit in der Lage für noch nicht getestete Substanzen sowohl strukturell verwandte Chemikalien zu finden als auch eine Vorhersage über mögliche toxische Effekte auf Haut und Schleimhäute oder DNA-Schäden zu machen.
Neben der Fähigkeit dieses neuartigen Systems zuverlässig gesundheitsschädliche Wirkungen von Substanzen vorherzusagen, ist die computergestützte Methode in der Anwendung viel günstiger und schneller als der Tierversuch. Für die Testung einer neuen Chemikalie wird üblicherweise eine Palette von Versuchen an verschiedenen Tierarten durchgeführt. Das ist nicht nur ethisch falsch, sondern kostet auch viel Geld und Zeit. Die Durchführung von 30 Standard-Tierversuchen für zum Beispiel ein neues Pestizid kann 17 Millionen Euro kosten und mehrere Jahre dauern.
Die US-amerikanische Gesundheitsbehörde (FDA) und Umweltschutzbehörde haben bereits mit der formellen Evaluierung der Methode begonnen. Bei der Entwicklung der Datenbank kam heraus, dass dieselbe Chemikalie oft Dutzende Male auf die gleiche Art und Weise getestet wurde. Beispielsweise wurden zwei Substanzen 90 Mal und 69 Chemikalien 45 Mal im sogenannten Draize-Test auf ihre Verträglichkeit getestet. Bei diesem extrem schmerzhaften Test werden Kaninchen Chemikalien in die Augen geträufelt. Anhand der Entzündungsanzeichen der Augen erfolgt anschließend die Beurteilung der Reizwirkung der Substanzen.
Quelle: Johns Hopkins Bloomberg School of Public Health, News Release, 11. Juli 2018 “Database analysis more reliable than animal testing for toxic chemicals”
Studie: Thomas Luechtefeld, Dan Marsh, Craig Rowlands, Thomas Hartung: “Machine learning of toxicological big data enables read-across structure activity relationships (RASAR) outperforming animal test reproducibility“, Toxicological Sciences, kfy152, https://doi.org/10.1093/toxsci/kfy152, published: 11 July 2018.
Aufrufe: 143