ChatGPT
Bildnachweis: FlashMovie/Getty Images
Die Durchführung eines Drogentestprogramms ist wie das Veranstalten einer riesigen Cocktailparty – und das Belauschen des Geschehens. Auf Cocktailpartys gibt es so viel Smalltalk, aber nur wenige sinnvolle Gespräche. In ähnlicher Weise überwiegen bei Arzneimittel-Screening-Programmen schwache Arzneimittel-Ziel-Wechselwirkungen die Fälle hochaffiner Bindung bei weitem.
Stellen Sie sich vor, Sie müssten sich jedes Geplänkel einer Cocktailparty anhören. Sicherlich wäre das langweilig. Bedenken Sie nun, wie viel schlimmer es wäre, jede Arzneimittel-Target-Wechselwirkung in einem typischen Arzneimittelscreening zu bewerten. Das würde selbst den geduldigsten Zuhörer erschöpfen – das typische System der künstlichen Intelligenz (KI).
Leider benötigen herkömmliche KI-Systeme viel Zeit, um Daten über die Wechselwirkungen zwischen Medikamentenkandidaten und Proteinzielen zu sichten. Die meisten KI-Systeme berechnen die dreidimensionale Struktur jedes Zielproteins anhand seiner Aminosäuresequenz und verwenden diese Strukturen dann, um vorherzusagen, mit welchen Arzneimittelmolekülen es interagieren wird. Der Ansatz ist erschöpfend, aber langsam.
Um die Dinge voranzutreiben, haben Forscher am MIT und an der Tufts University einen alternativen Rechenansatz entwickelt, der auf einer Art KI-Algorithmus basiert, der als großes Sprachmodell bekannt ist. Diese Modelle – ein bekanntes Beispiel ist ChatGPT – können große Textmengen analysieren und herausfinden, welche Wörter (oder in diesem Fall Aminosäuren) am wahrscheinlichsten zusammen vorkommen. Das vom MIT/Tufts-Team entwickelte große Sprachmodell ist als ConPLex bekannt. Es kann Zielproteine mit potenziellen Arzneimittelmolekülen abgleichen, ohne dass der rechenintensive Schritt der Berechnung der Molekülstrukturen durchgeführt werden muss.
Details zu ConPLex erschienen am 8. Juni in PNAS in einem Artikel mit dem Titel „Kontrastives Lernen im Protein-Sprachraum sagt Interaktionen zwischen Arzneimitteln und Proteinzielen voraus.“ ConPLex kann die Fortschritte bei vorab trainierten Protein-Sprachmodellen („PLex“) nutzen und eine proteinverankerte kontrastive Co-Einbettung („Con“) nutzen, um modernste Ansätze zu übertreffen.
„ConPLex erreicht eine hohe Genauigkeit, eine breite Anpassungsfähigkeit an unsichtbare Daten und eine Spezifität gegenüber Täuschungsverbindungen“, schrieben die Autoren des Artikels. „Es macht Bindungsvorhersagen basierend auf der Distanz zwischen erlernten Darstellungen und ermöglicht so Vorhersagen im Maßstab riesiger Verbindungsbibliotheken und des menschlichen Proteoms.“
Anschließend testeten die Forscher ihr Modell, indem sie eine Bibliothek von etwa 4.700 möglichen Arzneimittelmolekülen auf ihre Fähigkeit hin untersuchten, an eine Reihe von 51 Enzymen, sogenannte Proteinkinasen, zu binden.
Aus den Top-Treffern wählten die Forscher 19 Arzneimittel-Protein-Paare aus, um sie experimentell zu testen. Die Experimente ergaben, dass von den 19 Treffern 12 eine starke Bindungsaffinität (im nanomolaren Bereich) aufwiesen, während fast alle der vielen anderen möglichen Arzneimittel-Protein-Paare keine Affinität aufwiesen. Vier dieser Paare verbanden sich mit extrem hoher, subnanomolarer Affinität (so stark, dass eine winzige Wirkstoffkonzentration in der Größenordnung von Teilen pro Milliarde das Protein hemmt).
Während sich die Forscher in dieser Studie hauptsächlich auf das Screening niedermolekularer Arzneimittel konzentrierten, arbeiten sie nun daran, diesen Ansatz auf andere Arten von Arzneimitteln anzuwenden, beispielsweise auf therapeutische Antikörper. Diese Art der Modellierung könnte sich auch für die Durchführung von Toxizitätstests potenzieller Arzneimittelverbindungen als nützlich erweisen, um sicherzustellen, dass sie keine unerwünschten Nebenwirkungen haben, bevor sie in Tiermodellen getestet werden.
„Diese Arbeit befasst sich mit der Notwendigkeit eines effizienten und genauen In-silico-Screenings potenzieller Medikamentenkandidaten“, sagte Bonnie Berger, MIT-Forscherin und eine der leitenden Autoren der neuen Studie. „[Unser Modell] ermöglicht groß angelegte Screenings zur Bewertung von Off-Target-Effekten, zur Wiederverwendung von Arzneimitteln und zur Bestimmung der Auswirkungen von Mutationen auf die Arzneimittelbindung.“
„Ein Grund, warum die Arzneimittelforschung so teuer ist, liegt darin, dass sie hohe Misserfolgsraten aufweist“, bemerkte Rohit Singh, MIT-Forscher und einer der Hauptautoren der Studie. „Wenn wir diese Misserfolgsraten reduzieren können, indem wir im Voraus sagen, dass dieses Medikament wahrscheinlich nicht wirken wird, könnte das einen großen Beitrag zur Senkung der Kosten für die Medikamentenentwicklung leisten.“
Melden Sie sich an, um einen Kommentar zu hinterlassen