Open: Обработка конформационных ансамблей в Python: Difference between revisions

From TheorChemGroup at ZIOC RAS
mNo edit summary
 
(135 intermediate revisions by 3 users not shown)
Line 1: Line 1:
===Этот мануал не сделан для того, чтобы читать его до конца. Остановитесь ровно тогда, когда поймете, как решать стоящую перед вами задачу.===
==В чем заключается эта обработка и для чего её делать?==
==В чем заключается эта обработка и для чего её делать?==


Line 13: Line 15:
* Объединить конформационные ансамбли из нескольких расчетов, полученные, например, как в пункте выше, и отсортировать структуры по их энергии.
* Объединить конформационные ансамбли из нескольких расчетов, полученные, например, как в пункте выше, и отсортировать структуры по их энергии.


Этот мануал посвящен моей библиотеке [https://github.com/nkrivoshchapov/confpool pyxyz], которая позволяет решать эти задачи несколькими строчками в Python. Также этот мануал может быть полезен при анализе XYZ-файлов, полученных в результате расчета молекулярной динамики, оптимизаций, сканов, IRC и т.п.
Этот мануал посвящен моей библиотеке [https://gitlab.com/knvvv/pyxyz pyxyz], которая позволяет решать эти задачи несколькими строчками в Python. Также этот мануал может быть полезен при анализе XYZ-файлов, полученных в результате расчета молекулярной динамики, оптимизаций, сканов, IRC и т.п.
 
==Релевантные Wiki-статьи==
 
[[Конформационный поиск|Мануал Вадима Малышева о том, как делать расчеты]], где есть раздел про конформационный поиск - задача, в которой быстрое фильтрование по RMSD однозначно пригодится.
 
[[Нахождение дубликатов структур|Статья о библиотеке chemistryR Артёма Дмитриенко]] - более медленная, но проверенная многими людьми имплементация фильтрования по RMSD на языке R. Фильтрование по RMSD, реализованное в pyxyz, действует по том же алгоритму, что и в chemistryR.
 
[[Установка и настройка Jupyter Notebook на сервере|Статья о запуске Jupyter Notebook]] - полезная среда для интерактивной работы с кодом на Python и, в особенности, с кодом, использущим pyxyz.
 
<big>'''Все инструкции этого мануала продублированы в [https://knvvv.gitlab.io/pyxyz/ документации PyXYZ]'''</big>


==Установка библиотеки==
==Установка библиотеки==


Для работы под Linux требуется Python версии 3.7 или выше. Для работы под Windows требуется Python версии 3.8 или выше. Из библиотек для Python будет нужен только Numpy.
Для работы под Linux требуется Python версии 3.8 или выше. Windows на данный момент не поддерживается (если хотите об этом поговорить - пишите [https://t.me/Nkrivoshchapov сюда]). Установка необходимых библиотек Python:


Для установки на Linux нужно выполнить в терминале следующую команду:
<source lang="bash">
<source lang="bash">
pip install -i https://test.pypi.org/simple/ "pyxyz<1.0"
pip install numpy networkx plotnine jupyter plotly
# If the above doesn't work, try
pip3 install numpy networkx plotnine jupyter plotly
</source>
</source>


Для установки на Windows нужно выполнить в командной строке эту строчку:
Для установки нужно выполнить в терминале следующую команду:
<source lang="bash">
<source lang="bash">
pip install -i https://test.pypi.org/simple/ "pyxyz>=1.0"
pip install --upgrade pyxyz24
# If the above doesn't work, try
pip3 install --upgrade pyxyz24
</source>
</source>


Line 39: Line 54:
</source>
</source>


При импорте pyxyz под Linux может возникнуть ImportError, который исправляется изменение переменной LD_LIBRARY_PATH. Как это исправить библиотека пишет во время загрузки (строчка начинается с [WARNING]).
Если вам зачем-то ооочень надо запустить pyxyz под Windows, то можете попробовать старую версию:
<source lang="bash">
pip install -i https://test.pypi.org/simple/ "pyxyz>=1.0"
</source>
 
==Quick start==
 
Все необходимые действия написаны в Jupyter Notebook'e. Весь этот раздел - это комментарии к тому, что в нем делается:
 
<big>'''Notebook для удаления дубликатов -- [https://theorchem.ru/mediawiki/images/6/6b/Pyxyz_duplicates_demo.zip Pyxyz_duplicates_demo.zip]'''</big> ([[File:Pyxyz duplicates demo.zip|thumb]])
 
Зайдите через терминал в папку с файлом ''demo.ipynb'', выполните
 
jupyter notebook


Ошибка выглядит так:
и через браузер откройте ''demo.ipynb''. Затем, следуйте указаниям в заголовках и комментариях в коде.


>>>  import pyxyz
Задача удаления дубликатов, которую решает код в ''demo.ipynb'', очень часто возникает при анализе конформационных наборов. Чтобы опознать, что две структуры являются дубликатами, нам нужна метрика "похожести" структур молекул. В качестве этой метрики обычно используют [https://en.wikipedia.org/wiki/Root-mean-square_deviation_of_atomic_positions RMSD]: чем меньше RMSD пары конформеров, тем их геометрии более близки.
[WARNING] In case you don't have gslcblas installed and get ImportError, call ''''export LD_LIBRARY_PATH=/my/path/to/pyxyz:$LD_LIBRARY_PATH''''
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
  File "/home/xray/.local/lib/python3.8/site-packages/pyxyz/__init__.py", line 10, in <module>
    from confpool import Confpool
ImportError: libgslcblas.so.0: cannot open shared object file: No such file or directory


То есть перед запуском python нужно выполнить эту строчку и ImportError исчезнет (/my/path/to/pyxyz надо заменить на то, что будет у вас):
[[File:RMSD meaning.png|center|thumb|upright=2.0|Геометрический смысл RMSD (говоря полностью - RMSD декартовых координат атомов для пары наложенных друг на друга конформаций).]]
<source lang="bash">
 
export LD_LIBRARY_PATH=/my/path/to/pyxyz:$LD_LIBRARY_PATH
В библиотеке pyxyz реализован достаточно быстрый алгоритм расчета RMSD, однако остается несколько вопросов:
</source>
 
# Какое выбрать пороговое значение RMSD, ниже которого пары структур считаются одинаковыми?
# Как определить топологию (связи) молекулы, которая необходима для выявления эквивалентных атомов?
# Как ускорить фильтрование по RMSD для очень больших наборов конформеров с минимальными потерями в надежности?
 
На все три вопроса есть решения, но они требуют от пользователя понимания происходящего. Необходимая информация по каждому из вопросов приведена ниже:
 
===Выбор порогового RMSD===
 
Вопрос критичный, так как, если выбранное пороговое значение слишком низкое, то много дубликатов останутся неотфильтроваными, а если слишком высокое, то некоторые уникальные конформеры будут ошибочно удалены. Принцип поиска порогового RMSD прост: (1) смотрим на распределение значений RMSD для всех пар структур конформационного ансамбля, видим маленький пик пар дубликатов вблизи нуля и большой пик пар отличающихся структур, начинающийся около 1 А, (2) выбираем значение RMSD, в котором маленький пик пропал, а большой ещё не начался, (3) смотрим на пары вблизи этого RMSD и убеждаемся, что при таком выборе порога мы не потеряем уникальных конформеров.


==Пример обработки набора конформаций==
[[File:RMSD cutoff figure.png|center|thumb|upright=2.0|Принцип выбора порогового значение RMSD для фильтрования дубликатов. Код для построения таких картинок есть в архиве "Notebook для удаления дубликатов"]]


<big>'''Архив с примерами -- [https://theorchem.ru/mediawiki/images/d/dc/Pyxyz_manual.zip Pyxyz_manual.zip]'''</big> ([[File:Pyxyz manual.zip|thumb]])
===Определение связей в молекуле===


В качестве примера рассмотрим молекулу из файла diol_single.xyz и её конфнабор из CREST - diol_crest.xyz (см. архив). Рассмотрим несколько учебных задач, которые могли бы возникнуть на практике. Обратите внимание, что в пределах одного объекта Confpool количество атомов в анализируемых молекулах и последовательность атомов в импортируемых xyz-файлах должны быть постоянными.
Этот вопрос тоже критичный, так как, если связи в молекуле расставлены неправильно, то могут быть упущены (или найдены лишние) эквивалентные атомы, что приведет к заниженным/завышенным RMSD. Определение связей из положений атомов делается автоматически на основании ковалентных радиусов. Однако, нужно проконтролировать, что связи были действительно сгенерированы верно, особенно, когда некоторые связи почему-то удлинены (т.е. явно выше суммы ковалентных радиусов, например, в случае конфпоиска переходных состояний). Функция ''generate_connectivity'' имеет флаг ''sdf_name'' для сохранения топологии в отдельный файл, который можно открыть и проверить корректность расстановки связей.


Для работы потребуются следующие импорты:
===Фильтрование идет слишком долго. Как ускорить?===
<source lang="python">
from pyxyz import Confpool
import numpy as np
</source>


Для большей интерактивности с библиотекой можно работать не только запуская код из файла, но и через jupyter notebook.
* '''Исключение атомов водорода.''' Это уменьшит количество эквивалентных атомов и ускорит расчет RMSD. Для этого в вызове ''generate_connectivity'' замените ''ignore_elements=[]'' на ''ignore_elements=['HCarbon']''.


===Слияние конфнаборов и сортировка===
* '''Сравнивать энергии вместо RMSD.''' Ключ ''energy_threshold'' в вызове ''rmsd_filter'' задает минимальную разницу в энергях конформеров, при которой можно не считать RMSD и говорить, что эти конформеры отличаются. В коде выше эта величина выбрана за 1.0 ккал/моль, но можно её немного уменьшить для большей скорости фильтрования.


Допустим, мы знаем, что энергия структуры в файле diol_single.xyz равна -24.961, и мы хотим добавить эту структуру к набору в файле diol_crest.xyz. Для начала, загружаем оба xyz-файла в один объект Confpool:
* '''Исключение высокоэнергетических конформеров.''' Это уменьшит количество рассматриваемых конформеров и, соответственно, количество расчетов RMSD, которое нужно делать. Для этого в вызове ''upper_cutoff'' надо уменьшить пороговую энергию с 10.0 ккал/моль на что-то поменьше в зависимости от того, насколько вы доверяете методу расчета энергии.
<source lang="python">
ensemble = Confpool()
ensemble.include_from_file("diol_crest.xyz", energy=lambda x: float(x.strip()))
ensemble.include_from_file("diol_single.xyz", energy=lambda x: -24.961)
</source>


Здесь мы передаем в '''include_from_file''' функцию '''energy''', которая из описания структуры в xyz-файле вычленяет её энергию в виде дробного числа. Далее можно отсортировать полученный набор и сохранить его в файл:
* '''Запустите тоже самое под Linux.''' Опыт показывает, что на нём работает быстрее.
<source lang="python">
ensemble.sort()
ensemble.update_description(lambda e, d: "Energy = {:6f} a.u.".format(e))
ensemble.save("result.xyz")
</source>


Структура из файла "diol_single.xyz" не имела комментария, поэтому мы изменили формат описания для всех структур в наборе функцией '''update_description'''. Желаемый формат комментария передается через lambda-функцию, где аргумент '''e''' - это энергия, а '''d''' - это старое описание.
* '''Исключение малоинтересующих структур на основании их геометрии.''' Например, если ваша молекула может образовывать внутримолекулярную водородную связь, то почему бы не отбросить все структуры ею не обладающие (после расчета DFT они всё равно окажутся высокоэнергетическими)? Про то, как делать это и многое другое, написано в следующем разделе.


Полезно понимать, что описание структуры и её энергия - это две разных характеристики структуры. Первое нужно, чтобы записываться в xyz-файл при вызове '''save''', а вторая является ключём для сортировки при вызове '''sort'''. При этом энергию можно получать из описания на этапе парсинга xyz-файла, а обновлять описание к структурам можно с помощью функции '''update_description'''.
==Как написать свой скрипт для обработки конформационных наборов?==


===Анализ геометрии===
<big>'''Архив с примерами -- [https://theorchem.ru/mediawiki/images/d/dc/Pyxyz_manual.zip Pyxyz_manual.zip]'''</big> ([[File:Pyxyz manual.zip|thumb]])


Допустим, мы хотим узнать, сколько структур в наборе diol_crest.xyz имеют торсионный угол (5,6,7,19) близкий к 180. Для начала, готовим объект Confpool:
В качестве примера рассмотрим конформационные наборы переходного состояния из файлов crest_conformersA.xyz и crest_conformersB.xyz (см. архив). Рассмотрим несколько учебных задач, которые могли бы возникнуть на практике. Обратите внимание, что в пределах одного объекта Confpool количество атомов в анализируемых молекулах и последовательность атомов в импортируемых xyz-файлах должны быть одинаковыми.
<source lang="python">
ensemble = Confpool()
ensemble.include_from_file("diol_crest.xyz", energy=lambda x: float(x.strip()))
</source>


И затем пользуемся функцией '''dihedral_count''', чтобы узнать количество структур:
Для работы потребуются следующие импорты:
<source lang="python">
<source lang="python">
d = [5, 6, 7, 19]
from pyxyz import Confpool, KC2H, H2KC # Coefficients of kcal <-> Hartree conversions
n_conf = ensemble.dihedral_count(d[0], d[1], d[2], d[3], lambda x: 180.0 - abs(x) < 10.0)
import numpy as np
# Или укороченный эквивалент:
n_conf = ensemble.dihedral_count(*d, lambda x: 180.0 - abs(x) < 10.0)
print("Number of structures = {}".format(n_conf))
</source>
</source>


Требование на двугранный угол выражается функцией '''lambda x: 180.0 - abs(x) < 10.0''' - то есть отклонение от 180 по абсолютному значению должно быть не более 10 градусов (значения торсионных углов считаются в диапазоне от -180 до +180). Обратите внимание, что распаковка листа на аргументы делается короче, если пользоваться звёздочкой *.
Для большей интерактивности с библиотекой можно работать не только запуская код из файла, но и через jupyter notebook.


Можно не только узнать количество структур, но и отфильтровать интересующие. Например, так выглядит код для фильтрования структур с контактами между парой атомов (1, 19) и сохранения результата в файл:
[[File:TS for pyxyz.png|thumb|upright=1.8|Рисунок 1. Геометрия ПС, для которого сделан конфпоиск]]
<source lang="python">
ensemble.distance_filter(1, 19, lambda x: x < 2.0)
ensemble.save("result2.xyz")
</source>


===Передача данных в Python===
===Базовая обработка конформационных наборов===


Все данные, которые содержатся в объекте Confpool, доступны из кода Python. Количество структур внутри Confpool можно получить с помощью метода '''size''':
Допустим, мы сделали два запуска CREST и получили два файла с конформациями crest_conformersA.xyz и crest_conformersB.xyz. Для начала, загружаем оба xyz-файла в один объект Confpool:
<source lang="python">
<source lang="python">
print("We have {} structures".format(ensemble.size()))
p = Confpool()
p.include_from_file("crest_conformersA.xyz")
p.include_from_file("crest_conformersB.xyz")
print(f"Loaded {p.size} conformers")
</source>
</source>


Данные о структурах можно получить из их индекса путем вызова функции '''get_structure''', но учтите, что нумерация начинается с нуля. Например, в ансамбле, после применения '''sort()''', самая низкая по энергии структура будет иметь индекс 0:
Для дальнейшей обработки кроме геометрий нам понадобятся энергии конформеров. Их можно извлечь из описания к структурам:
<source lang="python">
<source lang="python">
ensemble.sort()
n_del = 0
best_conf = ensemble.get_structure(0)
p["Energy"] = lambda m: float(m.descr.strip())
n_del += p.upper_cutoff("Energy", 5.0 * KC2H)
print(f"{n_del} confs were filtered out")
p.sort("Energy") # Ascending by default. Use ascending=False to override
</source>
</source>


Полученный объект best_conf является словарем с тремя ключами: 'energy', 'descr' и 'xyz' (содержат энергию, описание и координаты, соответственно). Для того, чтобы полноценно работать со структурой, нужны ещё типы атомов; их можно получить в виде листа путем вызова '''get_atom_symbols'''. В качестве примера, можно сгенерировать структуру best_conf в xyz-формате:
Четвертая строчка здесь самая интересная - в ней мы говорим, что каждой конформации нужно сопоставить ключ ''Energy'' и рассчитать его из описания к конформации с помощью [https://www.geeksforgeeks.org/passing-function-as-an-argument-in-python/ переданной функции] (strip удаляет ненужные пробелы, а float конвертирует в дробное число). Далее мы применям '''upper_cutoff''', чтобы отбросить все конформеры с энергией выше 5 ккал/моль относительно минимальной энергии в наборе, и сортируем по возрастанию энергии. Стоит отметить, что все операции, сопровождающиеся удалением конформеров из набора (всего их четыре: '''filter''', '''rmsd_filter''', '''upper_cutoff''', '''lower_cutoff'''), возвращают целое число - количество удаленных структур, либо словарь, в котором это число записано под ключом ''DelCount''. Завершаем обработку отбрасыванием дубликатов по RMSD (приведенный ниже код работает очень медленно в случае данного ПС, см. ниже, как его легко ускорить):
<source lang="python">
<source lang="python">
atom_symbols = ensemble.get_atom_symbols()
p.generate_connectivity(0, mult=1.3, add_bonds=[[13, 23]], sdf_name='connectivity_check.sdf')
for i, symbol in enumerate(atom_symbols):
p.generate_isomorphisms()
    print("%2s %14.6f %14.6f %14.6f" % (symbol, *best_conf['xyz'][i]))
n_del += p.rmsd_filter(0.3, print_status=True)['DelCount']
print(f"{n_del} confs were filtered in total")
p.descr = lambda m: "Conf #{}; Energy = {:6f} a.u.".format(m.idx + 1, m["Energy"])
p.save_xyz('basic_processing.xyz')
</source>
</source>


Основные принципы работы с библиотекой мы рассмотрели, а в следующем разделе приведено конкретное описание всех возможностей класса Confpool.
Перед тем как фильтровать дубликаты по RMSD надо сделать два подготовительных этапа: сгенерировать топологию, а затем - изоморфизмы. Функция ''generate_connectivity'' определяет топологию (связи) в молекуле, используя ковалентные радиусы. То есть, если расстояние между парой атомов меньше, чем сумма их ковалентных радиусов, умноженная на ''mult'', то эти два атома считаются связанными. Выбор связей можно проконтролировать вручную с помощью кейвордов ''add_bonds'' и ''remove_bonds''. Нуль первым аргументом означает, что связи генерируется на основании первой структуры в наборе. Можно попросить программу записать сгенерированную топологию в sdf-файл, если передать в функцию ''generate_connectivity'' ключ ''sdf_name'' (требуемое название файла). Такая возможность позволяет подобрать подходящее значение ''mult'' и убедиться, что топология выбрана правильно. После успешной генерации топологии, надо сгенерировать изоморфизмы вызовом функции ''generate_isomorphisms''.


==Подробное описание функционала библиотеки==
Для собственно поиска дубликатов мы передали критерий для фильтрования RMSD < 0.3 A. Затем для оставшихся уникальных конформеров обновили описание с помощью переданной lambda-функции и сохранили набор в файл. Чтобы получить более хорошее представление о том, какой RMSD cutoff стоит брать, вместе с вызовом ''rmsd_filter'' можно сделать следующее:
<source lang="python">
rmsd_res = p.rmsd_filter(0.3, print_status=True)
newp = Confpool()
newp.include_subset(p, [rmsd_res["MinRMSD_pairA"], rmsd_res["MinRMSD_pairB"]])
newp.save_xyz("rmsd_test.xyz")
print("The minimal accepted rmsd is {}".format(rmsd_res["MinRMSD"]))
</source>


Описание методов класса Confpool приведено по следующей схеме:
Здесь создается ещё один набор с парой структур, соответствующих минимальному RMSD > rmsd_cutoff. Посмотрев, насколько сильно отличаются геометрии в файле rmsd_test.xyz можно попытаться оптимизировать rmsd_cutoff. Если почти не отличаются, то надо увеличивать. Слишком разные - уменьшать.


'''Имя функции'''(''название аргумента'': тип аргумента, ...) -> тип возвращаемого значения
Для очень больших конформационных наборов или очень симметричных молекул может возникнуть проблема скорости работы '''rmsd_filter'''. Для этого можно выбросить атомы каких-то элементов, обычно Н, а ещё можно использовать разницу значений какого-то ключа, как повод не считать RMSD для данной пары (все варианты ускорения уже были приведены в предыдущем разделе). Выполнив приведенный ниже код, можете убедиться, что удаление связанных с углеродом атомов водорода уменьшает количество изоморфизмов с 10368 до 8.  


Во всех примерах объект Confpool имеет название '''e'''. То есть он создавался строчкой:
<source lang="python">
<source lang="python">
e = Confpool()
# For faster filtration use this
p.generate_connectivity(0, mult=1.3, add_bonds=[[13, 23]], ignore_elements=['HCarbon'])
niso_a = p.generate_isomorphisms()
p.rmsd_filter(0.3, energy_threshold=1.0 * KC2H, energy_key='Energy', print_status=True)
# instead of this
p.generate_connectivity(0, mult=1.3, add_bonds=[[13, 23]])
niso_b = p.generate_isomorphisms()
print(f"{niso_b} vs. {niso_a} improvement when ignoring HCarbon atoms")
print("The next maneuver is gonna cost us 51 years...")
p.rmsd_filter(0.3, print_status=True)
</source>
</source>


===Добавление структур в набор===
В листе ''ignore_elements'' можно передавать символы обычных элементов, типа 'H' или 'F', тогда все атомы этих элементов будут исключены из расчетов изоморфизмов и расчетов RMSD. Также специально имплементирован ещё один тип игнорируемых атомов 'HCarbon', включение которого в ''ignore_elements'' приведет к игнорированию не всех атомов 'H', а только тех, которые образуют связь с одними атомом 'C' и больше ни с чем.


'''include_from_file'''(''filename'': str, ''energy=''None or function) -> None, ''energy''(''descr'': str) -> float
Получив финальный конформационный набор, можно не только сохранить его в xyz, а ещё и сгенерировать input-файлы для оптимизации или какого-то другого вида расчета:
Загрузка структур из XYZ-файле ''filename'' и (опционально) парсинг энергии из описания каждой структуры, с помощью функции ''energy''.
<source lang="python">
''filename'' - имя xyz-файла для импорта;
gjftemplate = """\
''energy'' - keyword, который можно игнорировать или передавать функцию для выделения энергии из строчки описания в xyz-файле.
%nprocs=24
 
# opt=(tight,maxcycle=300) freq=noraman def2tzvp empiricaldispersion=gd3bj rpbe1pbe scrf=(cpcm,solvent=water)
Пример, когда в описании к структуре энергия дается, как число без дополнительных подписей:
e.include_from_file("file.xyz", energy=lambda x: float(x.strip()))


===Изменение данных===
Conformation_{idx}


'''sort'''() -> None
0 1
Сортировка ансамбля по возрастанию энергии.
{xyz}
Пример: e.sort()


'''update_description'''(''f'': function) -> None, ''f''(''e'': float, ''d'': str) -> str
Используя функцию ''f'' сгенерировать новые описания к структурам из их энергии (float, первый аргумент ''f'') и старого описания (str, второй аргумент ''f'').
Пример: e.update_description(lambda ener, d: ''"E = {} a.u. (old descr = {})"''.format(ener, d))


'''Фильтры:'''
"""
atom_symbols = p.atom_symbols
for i, m in enumerate(p):
    xyz = m.xyz # xyz is a Numpy matrix
    xyzlines = []
    for j, symbol in enumerate(atom_symbols):
        xyzlines.append("%2s %14.6f %14.6f %14.6f" % (symbol, *xyz[j]))
    with open(f"conf_{i}.gjf", 'w') as f:
        f.write(gjftemplate.format(xyz="\n".join(xyzlines), idx=i))
</source>


'''energy_filter'''(''e_cutoff'': float, ''etype''='kcal/mol' or 'hartree'/'a.u.') -> None
В 90% случаев, как мне кажется, на этом этапе потребности расчетчика должны уже быть удовлетворены. Но иногда может захотеться обработать структуры более детально.
Отбросить все конформеры, энергия которых выше энергии минимального на ''e_cutoff''. В случае, когда ''etype=kcal/mol'', разницы по энергии переводятся из a.u. в kcal/mol, после чего производится сравнение с ''e_cutoff''. Во всех случаях предполагается, что энергия дана в a.u. Дефолтный ''etype=kcal/mol''.
Пример: e.energy_filter(5.0, etype='kcal/mol')


'''distance_filter'''(''idxA'': int, ''idxB'': int, ''condition'': function) -> None, ''condition''(''dist'': float) -> bool
===Анализ геометрии===
Отбросить все конформеры, расстояние между атомами ''idxA'' и ''idxB'' которых не удовлетворяет условию ''condition''. Функция ''condition'' получает на вход расстояние между атомами и, если она возвращает False, то структура отбрасывается.
Пример, в котором отбросятся структуры с расстоянием между атомами 1 и 2 больше, чем 1.7:
e.distance_filter(1, 2, lambda x: x < 1.7)


'''valence_filter'''(''idxA'': int, ''idxB'': int, ''idxC'': int, ''condition'': function) -> None, ''condition''(''angle'': float) -> bool
Продолжаем работу над объектом p, полученным в предыдущей секции. Как видно из Рисунка 1, явная молекула воды была добавлена, чтобы стабилизировать атом водорода 26, но в ходе конфпоиска H2O могла перескочить на другие атомы. Чтобы понять, сколько структур содержат интересующую нас водородную связь H26-O27, можно выполнить следующий код:
Отбросить все конформеры, валентный угол между атомами ''idxA'', ''idxB'' и ''idxC'' которых не удовлетворяет условию ''condition''. Функция ''condition'' получает на вход угол между атомами в градусах и, если она возвращает False, то структура отбрасывается.
<source lang="python">
Пример, в котором отбросятся структуры в углами между атомами 1, 2 и 3 близкими к развернутому:
p["H2O dist"] = lambda m: m.l(26, 27)
e.valence_filter(1, 2, 3, lambda a: 180.0 - a < 10.0)
for m in p:
    print("Length = {}".format(m["H2O dist"]))
# Could also use
for i in range(p.size):
    print("Length = {}".format(p[i].l(26, 27)))
    # or
    print("Length = {}".format(p[i]["H2O dist"]))
# Analyze the printed numbers and then
print("Found {} good structures".format(p.count(lambda m: m["H2O dist"] < 1.8)))
</source>


'''dihedral_filter'''(''idxA'': int, ''idxB'': int, ''idxC'': int, ''idxD'': int, ''condition'': function) -> None, ''condition''(''angle'': float) -> bool
Мы здесь использовали функцию '''m.l(a, b)''', чтобы обратиться к длинам связи отдельной структуры в наборе (внутри lambda-функции и при обращении по индексу). И ещё пригодилась функция '''count''', чтобы посчитать количество структур, удовлетворяющих заданному условию. Небольшое отступление: удобством в обращении по ключу в цикле, т.е. '''m["H2O dist"]''' или '''p[i]["H2O dist"]''', является возможность поменять значение ключа только для определенной структуры, например, '''p[i]["H2O dist"] = 123.0'''; но в текущей задаче это не понадобилось.
Отбросить все конформеры, торсионный угол между атомами ''idxA'', ''idxB'', ''idxC'' и ''idxD'' которых не удовлетворяет условию ''condition''. Функция ''condition'' получает на вход угол между атомами в градусах (между -180 и 180) и, если она возвращает False, то структура отбрасывается.
Пример, в котором отбросятся структуры в торсионными углами между атомами 1, 2, 3 и 4 близкими к нулю:
e.dihedral_filter(1, 2, 3, 4, lambda a: abs(a) < 10.0)


===Получение данных===
Далее можно отобразить наличие нужно водородной связи в описании структуры:
<source lang="python">
def quality_check(m):
    if m["H2O dist"] < 1.8:
        comment = "Nice"
    else:
        comment = "Garbage"
    return "{}; E={:3f} a.u.".format(comment, m["Energy"])


'''save'''(''filename'': str) -> None
# Print new descriptions in the console
Выписать данный конформационный набор в файл с название ''filename'' в формате XYZ. Струтуры будут выписаны в определенном порядке, например, в котором они находились в ранее импортированном файле или порядке после сортировки по энергии. В полученном XYZ файле будут включены описания к каждой структуре.
for m in p:
Пример: e.save("result.xyz")
    print(quality_check(m))


'''size'''() -> int
p.descr = quality_check # Set new descriptions
Возвращает количество структур в данном конформационном наборе.
p.save_xyz('hbond_analysis.xyz')
Пример: print("We have {} structures".format(e.size()))
</source>


'''get_structure'''(''index'': int) -> dict = {'energy': float, 'descr': str, 'xyz': np.array}
Если нужно наложить какие-то сложные требования на геометрию, то это можно сделать в одну строчку. Валентные и торсионные углы вычисляются функциями '''m.v(a, b, c)''' и '''m.z(a, b, c, d)''', соответственно:
Возвращает данные о структуре с индексом ''index''. Нумерация структур начинается с нуля, то есть 0 <= ''index'' <= e.size() - 1. Данные передаются в виде словаря с ключами 'energy' (энергия), 'descr' (описание) и 'xyz' (numpy матрица N на 3).
<source lang="python">
Пример: print("The first structure has energy {}".format(e.get_structure(0)['energy']))
hbond_condition = lambda m: m.l(25, 10) < 2.0 and m.v(24, 25, 10) > 150.0 and abs(m.z(26, 23, 24, 25)) > 120.0
print("There are {} matches".format(p.count(hbond_condition)))
p.filter(hbond_condition)


'''get_atom_symbols'''() -> list of str
min_ener = min(p["Energy"]) # p["Energy"] creates a list of floats
Возвращает лист из символов атомов.
p["E.Rel"] = lambda m: H2KC * (m["Energy"] - min_ener)
 
p.descr = lambda m: "{}; E(rel.)={:3f} kcal/mol".format(m.descr, m["E.Rel"])
'''Подсчет структур:'''
p.save_xyz('extreme_hbond_analysis.xyz')
 
</source>
'''energy_count'''(''e_cutoff'': float, ''etype''='kcal/mol' or 'hartree'/'a.u.') -> int
Возвращает количество структур в пределах данного ''e_cutoff'' от структуры с минимальной энергией (см. подробности в energy_filter).
 
'''distance_count'''(''idxA'': int, ''idxB'': int, ''condition'': function) -> None, ''condition''(''dist'': float) -> bool
Возвращает количество структур, удовлетворяющих условию ''condition'' на длину связей между атомами ''idxA'' и ''idxB'' (см. подробности в distance_filter).


'''valence_count'''(''idxA'': int, ''idxB'': int, ''idxC'': int, ''condition'': function) -> None, ''condition''(''angle'': float) -> bool
Не считая сложного условия '''hbond_condition''', в части с фильтрованием всё очевидно. А вот во второй части кода есть особенности: обращением '''p["Energy"]''' можно получать лист значений некого существующего ключа, а при установке новых значений '''p.descr''' или '''p["Some key"]''' можно обращаться к их старым значениям.
Возвращает количество структур, удовлетворяющих условию ''condition'' на валентный угол между атомами ''idxA'', ''idxB'' и ''idxC'' (см. подробности в valence_filter).


'''dihedral_count'''(''idxA'': int, ''idxB'': int, ''idxC'': int, ''idxD'': int, ''condition'': function) -> None, ''condition''(''angle'': float) -> bool
===Тонкости работы с библиотекой===
Возвращает количество структур, удовлетворяющих условию ''condition'' на торсионный угол между атомами ''idxA'', ''idxB'', ''idxC'' и ''idxD'' (см. подробности в dihedral_filter).


==Сборка pyxyz из исходного кода==
Как вы уже могли заметить, библиотека сделана исходя из нескольких ограничений:


Этот раздел может быть полезным (1) если вы хотите добавить в pyxyz новую функцию или нашли баг, (2) если вам нужно собрать библиотеку под новую версию Python или под нестандартную операционную систему, (3) хотите научиться делать Python-модули с помощью pybind11/C++.
# Все структуры подаются с одинаковой нумерацией атомов. Если дать две структуры с нумерациями C1, H2, H3 и H1, C2, H3, то будет Exception.
# Кроме XYZ, каждой структуре сопоставляется одна строка '''m.descr''' и сколько угодно дробных чисел '''m["SomeKey"]''', к которым можно обращаться по ключу (ключами могут быть только строки). Попытка записать по ключу что-то кроме дробного числа приведет к исключению (аналогично, с нестрочными описаниями структур).
# Все структуры имеют одинаковый набор ключей.


При загрузке на pyxyz на pypi мной используется немного странное соглашение о версии библиотеки: a.b.c, где а - это 1 (версия под Windows) или 0 (версия под Linux), b - обозначение версии Python (37, 38, 39 или 310), c - собственно версия кода библиотеки. Например, pyxyz версии 1.310.3 собирается для работы под Windows на Python 3.10 (и номер ревизии кода = 3). Когда хотите загрузить на pypi новую ревизию кода, увеличивайте номер ревизии (c) в файле setup.py (директории release_files и setup.py):
Вернемся к задаче с переходным состоянием с Рисунка 1 и допустим, что мы хотим проанализировать, насколько энергетически выгодны конформации, заданные критерием '''hbond_condition(m) and m.l(26, 27) < 1.8''', на фоне остальных найденных конформаций.
<source lang="python">
<source lang="python">
version='1.3{ver}.1', # здесь версия равна 1 (правая единица)
import pandas as pd
p = Confpool()
p.include_from_file("crest_conformersA.xyz")
p.include_from_file("crest_conformersB.xyz")
p["Energy"] = lambda m: float(m.descr.strip())
p.sort("Energy")
p.generate_connectivity(0)
p.generate_isomorphisms()
p.rmsd_filter(0.3)
for m in p:
    if hbond_condition(m) and m.l(26, 27) < 1.8:
        m["MyCondition"] = 1.0 # Just 1 would give an error
    else:
        m["MyCondition"] = 0.0 # Same here with 0
print(pd.DataFrame(p.as_table()))
</source>
</source>


Сборка под Linux проверена на GCC 10.3.1, а под Windows - на GCC 12.1.0.
В результате мы получили DataFrame, в котором MyCondition соответствует тому, выполняются наши требования на водородные связи или нет:


===Сборка под Linux===
    MyCondition    Energy
0          0.0 -45.344433
1          0.0 -45.343703
2          1.0 -45.343607
3          0.0 -45.343443
4          0.0 -45.342388
5          1.0 -45.342137
...


Пререквизиты: make, cmake, g++, gsl, boost, pkg-config. Чтобы собрать библиотеку на одном компьютере без цели её распространения (для выполнения конкретной задачи или в процессе разработки), выполните следующее:
Здесь, мы пользуемся небольшим костылём в связи с тем, что ключи обязаны быть дробными числами, поэтому ''"MyCondition"'' - дробное число, а не bool, например. Чтобы об этом не забывать, никакие неявные конверсии во время присвоения не делаются (см. выше, что '''с дробным числом''' 1.0 '''работает''', а '''с целым числом''' 1 - '''нет'''). Другой момент - это что присвоение значения нового ключа для одной структуры автоматически инициализирует этот ключ со значением 0.0 для всех остальных структур (см. третий принцип в начале раздела). Ну и, наконец, '''p.as_table()''' генерирует вам данные всех ключей в виде словаря из листов.
<source lang="bash">
git clone --recurse-submodules https://github.com/nkrivoshchapov/confpool.git
cd confpool
python build_script.py 8 # Восьмерка соответствует x в версии Python3.x (может быть 8, 9 или 10)
cd release
pip install .
</source>


Готово!
Ещё полезно знать о возможности создания копий объектов Confpool.
<source lang="python">
# All these calls won't modify the original pool (p)
p_new = Confpool(p) # Creates a copy of p


Если стоит задача загрузить библиотеку на pypi, то понадобится ещё и conda, в которой должны быть созданы отдельные среды с разными версиями Python:
p_new = p.sort("Energy", inplace=False) # Returns a modified copy of p
<source lang="bash">
res = p.upper_cutoff("Energy", 2.0 * KC2H, inplace=False)
conda create -n py38 python=3.8 -y
p_new = res['Object']
conda activate py38
print(f"New pool ({p_new.size}) has {res['DelCount']} less structures compared to the initial one ({p.size})")
pip install numpy twine
conda deactivate
# Повторить для Python3.x (x = 7, 9, 10)
</source>


Таким образом, должно быть создано четыре среды: py37, py38, py39 и py310. Далее скачиваем исходный код:
res = p.lower_cutoff("Energy", 2.0 * KC2H, inplace=False)
<source lang="bash">
p_new = res['Object'] # Returns a modified copy of p
git clone --recurse-submodules https://github.com/nkrivoshchapov/confpool.git
print(f"New pool ({p_new.size}) has {res['DelCount']} less structures compared to the initial one ({p.size})")
cd confpool
</source>


Затем для каждой версии Python выполняем сборку библиотеки и загружаем соответствующую версию на pypi:
res = p.filter(lambda m: '69' in str(m["Energy"]), inplace=False)
<source lang="bash">
p_new = res['Object'] # Returns a modified copy of p
conda activate py38
print(f"The nice pool ({p_new.size}) has {res['DelCount']} less structures compared to the initial one ({p.size})")
python build_script.py 8 # Восьмерка соответствует x в версии Python3.x
cd release
python setup.py sdist
twine upload --repository testpypi dist/* # Ввести логин и пароль
conda deactivate
</source>


Повторите тоже самое для остальных версий Python.
res = p.rmsd_filter(0.2, inplace=False)
 
p_new = res['Object'] # Returns a modified copy of p
После запусков twine вам будет выписываться ссылка типа https://test.pypi.org/project/pyxyz/0.310.3/, по которой можно будет посмотреть команду для скачивания только что собранной версии. Более того, по аналогии с <source lang="bash">pip install -i https://test.pypi.org/simple/ "pyxyz<1.0" </source> можно написать универсальную команду, чтобы устанавливать независимо от версии Python.
print(f"New pool ({p_new.size}) has {res['DelCount']} less structures compared to the initial one ({p.size})")
 
===Сборка под Windows===
 
Установите себе MSYS2 по [https://www.msys2.org/wiki/MSYS2-installation/ ссылке] (там надо нажать на 32-bit или 64-bit, а потом скачать свежий exe-шник msys2-x86_64-???.exe). После установки запустите через Пуск терминал MSYS2 MinGW x64 и установите некоторые пререквизиты:
<source lang="bash">
pacman -Syu
pacman -S --needed base-devel mingw-w64-x86_64-toolchain
pacman -S mingw-w64-x86_64-gsl mingw-w64-x86_64-boost mingw-w64-x86_64-cmake mingw-w64-x86_64-pybind11 git
</source>
</source>


Стоит отметить, что MSYS2 и установленные только что библиотеки нужны только для сборки pyxyz под Windows, но не требуются для его использования.
Небольшой комментарий насчет возможных багов: изоморфизмы без проблем копируются из старого объекта в новый, однако с молекулярным графом могут быть проблемы, так что, во избежание багов, перед вызовом '''generate_isomorphisms''' для нового объекта делайте для него вызов '''generate_connectivity'''.


Также нужно, чтобы у вас была установлена Anaconda (или Miniconda). Узнайте расположение файла conda.exe и добавьте в файл C:\msys64\home\*myusername*\.bash_profile следующую строчку:
<source lang="python">
<source lang="bash">
# Case 1 - OK. p_new inherits isomorphisms from p
eval "$('/c/tools/Anaconda3/Scripts/conda.exe' 'shell.bash' 'hook')"
p_new = Confpool(p)
# Проверьте путь к conda.exe!
p_new.rmsd_filter(0.2) # OK if generate_connectivity and generate_isomorphisms were called for p
</source>


Как и в Linux может быть два варианта сборки: только для своего компьютера и для загрузки на pypi. Инструкции для своего компьютера:
# Case 2 - might be bugged. Inherit molecular graph but generate isomorphisms from scratch
<source lang="bash">
p_new = Confpool(p)
git clone --recurse-submodules https://github.com/nkrivoshchapov/confpool.git
p_new.generate_isomorphisms()
cd confpool
p_new.rmsd_filter(0.2)
python winbuild_script.py 8 # Восьмерка соответствует x в версии Python3.x (может быть 8, 9 или 10)
cd release
pip install .
</source>


Готово! Теперь даже из командной строки Anaconda (вне MSYS2) можно будет вызывать pyxyz.
# Case 3 - OK. Generate graph AND isomorphisms from scratch
 
p_new = Confpool(p)
Как и c линуксом, если стоит задача загрузить библиотеку на pypi, то понадобится создать отдельные среды в conda с разными версиями Python:
p_new.generate_connectivity(0, mult=1.3)
<source lang="bash">
p_new.generate_isomorphisms()
conda create -n py38 python=3.8 -y
p_new.rmsd_filter(0.2)
conda activate py38
pip install numpy twine
conda deactivate
# Повторить для Python3.x (x = 9, 10)
</source>
</source>


Таким образом, должно быть создано три среды: py38, py39 и py310. Далее скачиваем исходный код:
Ещё добавлю, что можно достаточно легко удалять ненужные структуры и ключи:
<source lang="bash">
<source lang="python">
git clone --recurse-submodules https://github.com/nkrivoshchapov/confpool.git
del p[0]
cd confpool
del p[p.size - 1]
del p["MyKey"]
</source>
</source>


Затем для каждой версии Python выполняем сборку библиотеки и загружаем соответствующую версию на pypi. Шаги по загрузке на pypi делаются не в MSYS2, а в обычной командной строке Anaconda, потому что MSYS2 зависает на стадии ввода пароля при загрузке через twine.
Этот код удаляет первую и последнюю структуры в наборе, а затем удаляет ключ ''"MyKey"'' для всех оставшихся структур.
<source lang="bash">
conda activate py38
python winbuild_script.py 8 # Восьмерка соответствует x в версии Python3.x
conda deactivate
# В отдельном окне командной строки Anaconda (уже не MSYS2):
conda activate py38
cd *mypath*/confpool/release
python setup.py sdist
twine upload --repository testpypi dist/* # Ввести логин и пароль
conda deactivate
</source>


Повторяем эти шаги для версий Python 3.9 и 3.10. Универсальная ссылка на скачивание под Windows делается по следующему принципу:
Для особо заинтересовавшихся на [https://knvvv.gitlab.io/pyxyz/source/pyxyz.html сайте с документацией] приведен весь функционал библиотеки с короткими примерами кода.
<source lang="bash">
pip install -i https://test.pypi.org/simple/ "pyxyz>=1.0"
</source>


==TODO==
==TODO==


1. RMSD filtering
# include_from_xyz shouldn't erase atom_symbols when they are already written by user
 
# Вариация класса Confpool для произвольных структур без ограничений на типы атомов
2. Build connectivity graphs & search for VdW contacts
# Вариации класса Confpool с ключами произвольного (mutable) типа и значениями типа py::object.
 
# Search for VdW contacts
3. Complex filtering conditions (how to implement?)
# copy constructor, operator+
 
# Прикрутить библиотеку, которая парсит логи квантовохимических программ
4. Complex description templates (how to implement?)
 
TODO: include_from_dict
 
TODO: copy constructor, operator+

Latest revision as of 17:53, 14 September 2024

Этот мануал не сделан для того, чтобы читать его до конца. Остановитесь ровно тогда, когда поймете, как решать стоящую перед вами задачу.

В чем заключается эта обработка и для чего её делать?

Программы для конформационного поиска обычно выдают результаты в виде XYZ файлов, структуры из которых обычно надо вписать в инпут-файлы для последующей квантовохимической оптимизации. Чтобы уменьшить количество расчетов вам может захотеться сделать следующие операции, перед тем, как генерировать инпут-файлы:

  • Отсеять конформации с чрезмерно высокой энергией;
  • Удалить дубликаты;
  • Проверить сохранение констрейнов и отбросить структуры, в которых они нарушены. Например, когда вы ищите конформеры переходного состояния в CREST, полученный конформационный набор может содержать структуры, в которых заданные констрейны сильно нарушены. Если начнете оптимизировать такие геометрии в DFT, то ПС не найдется, а вы потратите время.
  • Проанализировать ансамбль и узнать, какие слабые взаимодействия (водородные связи и т.п.) могут образовываться в вашей молекуле. Найденные контакты можно учесть в дополнительных запусках конформационного поиска с констрейнами, чтобы лучше перебрать варианты с данными взаимодействиями.
  • Объединить конформационные ансамбли из нескольких расчетов, полученные, например, как в пункте выше, и отсортировать структуры по их энергии.

Этот мануал посвящен моей библиотеке pyxyz, которая позволяет решать эти задачи несколькими строчками в Python. Также этот мануал может быть полезен при анализе XYZ-файлов, полученных в результате расчета молекулярной динамики, оптимизаций, сканов, IRC и т.п.

Релевантные Wiki-статьи

Мануал Вадима Малышева о том, как делать расчеты, где есть раздел про конформационный поиск - задача, в которой быстрое фильтрование по RMSD однозначно пригодится.

Статья о библиотеке chemistryR Артёма Дмитриенко - более медленная, но проверенная многими людьми имплементация фильтрования по RMSD на языке R. Фильтрование по RMSD, реализованное в pyxyz, действует по том же алгоритму, что и в chemistryR.

Статья о запуске Jupyter Notebook - полезная среда для интерактивной работы с кодом на Python и, в особенности, с кодом, использущим pyxyz.

Все инструкции этого мануала продублированы в документации PyXYZ

Установка библиотеки

Для работы под Linux требуется Python версии 3.8 или выше. Windows на данный момент не поддерживается (если хотите об этом поговорить - пишите сюда). Установка необходимых библиотек Python:

pip install numpy networkx plotnine jupyter plotly
# If the above doesn't work, try
pip3 install numpy networkx plotnine jupyter plotly

Для установки нужно выполнить в терминале следующую команду:

pip install --upgrade pyxyz24
# If the above doesn't work, try
pip3 install --upgrade pyxyz24

Обратите внимание, что в некоторых случаях может понадобиться заменить pip на pip3 (это зависит от того, как у вас установлен Python).

После вызова pip install проверьте корректность установки: импортируется ли библиотека и выполняются ли тесты:

import pyxyz
import pyxyz.test
pyxyz.test.run_tests()

Если вам зачем-то ооочень надо запустить pyxyz под Windows, то можете попробовать старую версию:

pip install -i https://test.pypi.org/simple/ "pyxyz>=1.0"

Quick start

Все необходимые действия написаны в Jupyter Notebook'e. Весь этот раздел - это комментарии к тому, что в нем делается:

Notebook для удаления дубликатов -- Pyxyz_duplicates_demo.zip (File:Pyxyz duplicates demo.zip)

Зайдите через терминал в папку с файлом demo.ipynb, выполните

jupyter notebook

и через браузер откройте demo.ipynb. Затем, следуйте указаниям в заголовках и комментариях в коде.

Задача удаления дубликатов, которую решает код в demo.ipynb, очень часто возникает при анализе конформационных наборов. Чтобы опознать, что две структуры являются дубликатами, нам нужна метрика "похожести" структур молекул. В качестве этой метрики обычно используют RMSD: чем меньше RMSD пары конформеров, тем их геометрии более близки.

Геометрический смысл RMSD (говоря полностью - RMSD декартовых координат атомов для пары наложенных друг на друга конформаций).

В библиотеке pyxyz реализован достаточно быстрый алгоритм расчета RMSD, однако остается несколько вопросов:

  1. Какое выбрать пороговое значение RMSD, ниже которого пары структур считаются одинаковыми?
  2. Как определить топологию (связи) молекулы, которая необходима для выявления эквивалентных атомов?
  3. Как ускорить фильтрование по RMSD для очень больших наборов конформеров с минимальными потерями в надежности?

На все три вопроса есть решения, но они требуют от пользователя понимания происходящего. Необходимая информация по каждому из вопросов приведена ниже:

Выбор порогового RMSD

Вопрос критичный, так как, если выбранное пороговое значение слишком низкое, то много дубликатов останутся неотфильтроваными, а если слишком высокое, то некоторые уникальные конформеры будут ошибочно удалены. Принцип поиска порогового RMSD прост: (1) смотрим на распределение значений RMSD для всех пар структур конформационного ансамбля, видим маленький пик пар дубликатов вблизи нуля и большой пик пар отличающихся структур, начинающийся около 1 А, (2) выбираем значение RMSD, в котором маленький пик пропал, а большой ещё не начался, (3) смотрим на пары вблизи этого RMSD и убеждаемся, что при таком выборе порога мы не потеряем уникальных конформеров.

Принцип выбора порогового значение RMSD для фильтрования дубликатов. Код для построения таких картинок есть в архиве "Notebook для удаления дубликатов"

Определение связей в молекуле

Этот вопрос тоже критичный, так как, если связи в молекуле расставлены неправильно, то могут быть упущены (или найдены лишние) эквивалентные атомы, что приведет к заниженным/завышенным RMSD. Определение связей из положений атомов делается автоматически на основании ковалентных радиусов. Однако, нужно проконтролировать, что связи были действительно сгенерированы верно, особенно, когда некоторые связи почему-то удлинены (т.е. явно выше суммы ковалентных радиусов, например, в случае конфпоиска переходных состояний). Функция generate_connectivity имеет флаг sdf_name для сохранения топологии в отдельный файл, который можно открыть и проверить корректность расстановки связей.

Фильтрование идет слишком долго. Как ускорить?

  • Исключение атомов водорода. Это уменьшит количество эквивалентных атомов и ускорит расчет RMSD. Для этого в вызове generate_connectivity замените ignore_elements=[] на ignore_elements=['HCarbon'].
  • Сравнивать энергии вместо RMSD. Ключ energy_threshold в вызове rmsd_filter задает минимальную разницу в энергях конформеров, при которой можно не считать RMSD и говорить, что эти конформеры отличаются. В коде выше эта величина выбрана за 1.0 ккал/моль, но можно её немного уменьшить для большей скорости фильтрования.
  • Исключение высокоэнергетических конформеров. Это уменьшит количество рассматриваемых конформеров и, соответственно, количество расчетов RMSD, которое нужно делать. Для этого в вызове upper_cutoff надо уменьшить пороговую энергию с 10.0 ккал/моль на что-то поменьше в зависимости от того, насколько вы доверяете методу расчета энергии.
  • Запустите тоже самое под Linux. Опыт показывает, что на нём работает быстрее.
  • Исключение малоинтересующих структур на основании их геометрии. Например, если ваша молекула может образовывать внутримолекулярную водородную связь, то почему бы не отбросить все структуры ею не обладающие (после расчета DFT они всё равно окажутся высокоэнергетическими)? Про то, как делать это и многое другое, написано в следующем разделе.

Как написать свой скрипт для обработки конформационных наборов?

Архив с примерами -- Pyxyz_manual.zip (File:Pyxyz manual.zip)

В качестве примера рассмотрим конформационные наборы переходного состояния из файлов crest_conformersA.xyz и crest_conformersB.xyz (см. архив). Рассмотрим несколько учебных задач, которые могли бы возникнуть на практике. Обратите внимание, что в пределах одного объекта Confpool количество атомов в анализируемых молекулах и последовательность атомов в импортируемых xyz-файлах должны быть одинаковыми.

Для работы потребуются следующие импорты:

from pyxyz import Confpool, KC2H, H2KC # Coefficients of kcal <-> Hartree conversions
import numpy as np

Для большей интерактивности с библиотекой можно работать не только запуская код из файла, но и через jupyter notebook.

Рисунок 1. Геометрия ПС, для которого сделан конфпоиск

Базовая обработка конформационных наборов

Допустим, мы сделали два запуска CREST и получили два файла с конформациями crest_conformersA.xyz и crest_conformersB.xyz. Для начала, загружаем оба xyz-файла в один объект Confpool:

p = Confpool()
p.include_from_file("crest_conformersA.xyz")
p.include_from_file("crest_conformersB.xyz")
print(f"Loaded {p.size} conformers")

Для дальнейшей обработки кроме геометрий нам понадобятся энергии конформеров. Их можно извлечь из описания к структурам:

n_del = 0
p["Energy"] = lambda m: float(m.descr.strip())
n_del += p.upper_cutoff("Energy", 5.0 * KC2H)
print(f"{n_del} confs were filtered out")
p.sort("Energy") # Ascending by default. Use ascending=False to override

Четвертая строчка здесь самая интересная - в ней мы говорим, что каждой конформации нужно сопоставить ключ Energy и рассчитать его из описания к конформации с помощью переданной функции (strip удаляет ненужные пробелы, а float конвертирует в дробное число). Далее мы применям upper_cutoff, чтобы отбросить все конформеры с энергией выше 5 ккал/моль относительно минимальной энергии в наборе, и сортируем по возрастанию энергии. Стоит отметить, что все операции, сопровождающиеся удалением конформеров из набора (всего их четыре: filter, rmsd_filter, upper_cutoff, lower_cutoff), возвращают целое число - количество удаленных структур, либо словарь, в котором это число записано под ключом DelCount. Завершаем обработку отбрасыванием дубликатов по RMSD (приведенный ниже код работает очень медленно в случае данного ПС, см. ниже, как его легко ускорить):

p.generate_connectivity(0, mult=1.3, add_bonds=[[13, 23]], sdf_name='connectivity_check.sdf')
p.generate_isomorphisms()
n_del += p.rmsd_filter(0.3, print_status=True)['DelCount']
print(f"{n_del} confs were filtered in total")
p.descr = lambda m: "Conf #{}; Energy = {:6f} a.u.".format(m.idx + 1, m["Energy"])
p.save_xyz('basic_processing.xyz')

Перед тем как фильтровать дубликаты по RMSD надо сделать два подготовительных этапа: сгенерировать топологию, а затем - изоморфизмы. Функция generate_connectivity определяет топологию (связи) в молекуле, используя ковалентные радиусы. То есть, если расстояние между парой атомов меньше, чем сумма их ковалентных радиусов, умноженная на mult, то эти два атома считаются связанными. Выбор связей можно проконтролировать вручную с помощью кейвордов add_bonds и remove_bonds. Нуль первым аргументом означает, что связи генерируется на основании первой структуры в наборе. Можно попросить программу записать сгенерированную топологию в sdf-файл, если передать в функцию generate_connectivity ключ sdf_name (требуемое название файла). Такая возможность позволяет подобрать подходящее значение mult и убедиться, что топология выбрана правильно. После успешной генерации топологии, надо сгенерировать изоморфизмы вызовом функции generate_isomorphisms.

Для собственно поиска дубликатов мы передали критерий для фильтрования RMSD < 0.3 A. Затем для оставшихся уникальных конформеров обновили описание с помощью переданной lambda-функции и сохранили набор в файл. Чтобы получить более хорошее представление о том, какой RMSD cutoff стоит брать, вместе с вызовом rmsd_filter можно сделать следующее:

rmsd_res = p.rmsd_filter(0.3, print_status=True)
newp = Confpool()
newp.include_subset(p, [rmsd_res["MinRMSD_pairA"], rmsd_res["MinRMSD_pairB"]])
newp.save_xyz("rmsd_test.xyz")
print("The minimal accepted rmsd is {}".format(rmsd_res["MinRMSD"]))

Здесь создается ещё один набор с парой структур, соответствующих минимальному RMSD > rmsd_cutoff. Посмотрев, насколько сильно отличаются геометрии в файле rmsd_test.xyz можно попытаться оптимизировать rmsd_cutoff. Если почти не отличаются, то надо увеличивать. Слишком разные - уменьшать.

Для очень больших конформационных наборов или очень симметричных молекул может возникнуть проблема скорости работы rmsd_filter. Для этого можно выбросить атомы каких-то элементов, обычно Н, а ещё можно использовать разницу значений какого-то ключа, как повод не считать RMSD для данной пары (все варианты ускорения уже были приведены в предыдущем разделе). Выполнив приведенный ниже код, можете убедиться, что удаление связанных с углеродом атомов водорода уменьшает количество изоморфизмов с 10368 до 8.

# For faster filtration use this
p.generate_connectivity(0, mult=1.3, add_bonds=[[13, 23]], ignore_elements=['HCarbon'])
niso_a = p.generate_isomorphisms()
p.rmsd_filter(0.3, energy_threshold=1.0 * KC2H, energy_key='Energy', print_status=True)
# instead of this
p.generate_connectivity(0, mult=1.3, add_bonds=[[13, 23]])
niso_b = p.generate_isomorphisms()
print(f"{niso_b} vs. {niso_a} improvement when ignoring HCarbon atoms")
print("The next maneuver is gonna cost us 51 years...")
p.rmsd_filter(0.3, print_status=True)

В листе ignore_elements можно передавать символы обычных элементов, типа 'H' или 'F', тогда все атомы этих элементов будут исключены из расчетов изоморфизмов и расчетов RMSD. Также специально имплементирован ещё один тип игнорируемых атомов 'HCarbon', включение которого в ignore_elements приведет к игнорированию не всех атомов 'H', а только тех, которые образуют связь с одними атомом 'C' и больше ни с чем.

Получив финальный конформационный набор, можно не только сохранить его в xyz, а ещё и сгенерировать input-файлы для оптимизации или какого-то другого вида расчета:

gjftemplate = """\
%nprocs=24
# opt=(tight,maxcycle=300) freq=noraman def2tzvp empiricaldispersion=gd3bj rpbe1pbe scrf=(cpcm,solvent=water)

Conformation_{idx}

0 1
{xyz}


"""
atom_symbols = p.atom_symbols
for i, m in enumerate(p):
    xyz = m.xyz # xyz is a Numpy matrix
    xyzlines = []
    for j, symbol in enumerate(atom_symbols):
        xyzlines.append("%2s %14.6f %14.6f %14.6f" % (symbol, *xyz[j]))
    with open(f"conf_{i}.gjf", 'w') as f:
        f.write(gjftemplate.format(xyz="\n".join(xyzlines), idx=i))

В 90% случаев, как мне кажется, на этом этапе потребности расчетчика должны уже быть удовлетворены. Но иногда может захотеться обработать структуры более детально.

Анализ геометрии

Продолжаем работу над объектом p, полученным в предыдущей секции. Как видно из Рисунка 1, явная молекула воды была добавлена, чтобы стабилизировать атом водорода 26, но в ходе конфпоиска H2O могла перескочить на другие атомы. Чтобы понять, сколько структур содержат интересующую нас водородную связь H26-O27, можно выполнить следующий код:

p["H2O dist"] = lambda m: m.l(26, 27)
for m in p:
    print("Length = {}".format(m["H2O dist"]))
# Could also use
for i in range(p.size):
    print("Length = {}".format(p[i].l(26, 27)))
    # or 
    print("Length = {}".format(p[i]["H2O dist"]))
# Analyze the printed numbers and then
print("Found {} good structures".format(p.count(lambda m: m["H2O dist"] < 1.8)))

Мы здесь использовали функцию m.l(a, b), чтобы обратиться к длинам связи отдельной структуры в наборе (внутри lambda-функции и при обращении по индексу). И ещё пригодилась функция count, чтобы посчитать количество структур, удовлетворяющих заданному условию. Небольшое отступление: удобством в обращении по ключу в цикле, т.е. m["H2O dist"] или p[i]["H2O dist"], является возможность поменять значение ключа только для определенной структуры, например, p[i]["H2O dist"] = 123.0; но в текущей задаче это не понадобилось.

Далее можно отобразить наличие нужно водородной связи в описании структуры:

def quality_check(m):
    if m["H2O dist"] < 1.8:
        comment = "Nice"
    else:
        comment = "Garbage"
    return "{}; E={:3f} a.u.".format(comment, m["Energy"])

# Print new descriptions in the console
for m in p:
    print(quality_check(m))

p.descr = quality_check # Set new descriptions
p.save_xyz('hbond_analysis.xyz')

Если нужно наложить какие-то сложные требования на геометрию, то это можно сделать в одну строчку. Валентные и торсионные углы вычисляются функциями m.v(a, b, c) и m.z(a, b, c, d), соответственно:

hbond_condition = lambda m: m.l(25, 10) < 2.0 and m.v(24, 25, 10) > 150.0 and abs(m.z(26, 23, 24, 25)) > 120.0
print("There are {} matches".format(p.count(hbond_condition)))
p.filter(hbond_condition)

min_ener = min(p["Energy"]) # p["Energy"] creates a list of floats
p["E.Rel"] = lambda m: H2KC * (m["Energy"] - min_ener)
p.descr = lambda m: "{}; E(rel.)={:3f} kcal/mol".format(m.descr, m["E.Rel"])
p.save_xyz('extreme_hbond_analysis.xyz')

Не считая сложного условия hbond_condition, в части с фильтрованием всё очевидно. А вот во второй части кода есть особенности: обращением p["Energy"] можно получать лист значений некого существующего ключа, а при установке новых значений p.descr или p["Some key"] можно обращаться к их старым значениям.

Тонкости работы с библиотекой

Как вы уже могли заметить, библиотека сделана исходя из нескольких ограничений:

  1. Все структуры подаются с одинаковой нумерацией атомов. Если дать две структуры с нумерациями C1, H2, H3 и H1, C2, H3, то будет Exception.
  2. Кроме XYZ, каждой структуре сопоставляется одна строка m.descr и сколько угодно дробных чисел m["SomeKey"], к которым можно обращаться по ключу (ключами могут быть только строки). Попытка записать по ключу что-то кроме дробного числа приведет к исключению (аналогично, с нестрочными описаниями структур).
  3. Все структуры имеют одинаковый набор ключей.

Вернемся к задаче с переходным состоянием с Рисунка 1 и допустим, что мы хотим проанализировать, насколько энергетически выгодны конформации, заданные критерием hbond_condition(m) and m.l(26, 27) < 1.8, на фоне остальных найденных конформаций.

import pandas as pd
p = Confpool()
p.include_from_file("crest_conformersA.xyz")
p.include_from_file("crest_conformersB.xyz")
p["Energy"] = lambda m: float(m.descr.strip())
p.sort("Energy")
p.generate_connectivity(0)
p.generate_isomorphisms()
p.rmsd_filter(0.3)
for m in p:
    if hbond_condition(m) and m.l(26, 27) < 1.8:
        m["MyCondition"] = 1.0 # Just 1 would give an error
    else:
        m["MyCondition"] = 0.0 # Same here with 0
print(pd.DataFrame(p.as_table()))

В результате мы получили DataFrame, в котором MyCondition соответствует тому, выполняются наши требования на водородные связи или нет:

    MyCondition     Energy
0           0.0 -45.344433
1           0.0 -45.343703
2           1.0 -45.343607
3           0.0 -45.343443
4           0.0 -45.342388
5           1.0 -45.342137
...

Здесь, мы пользуемся небольшим костылём в связи с тем, что ключи обязаны быть дробными числами, поэтому "MyCondition" - дробное число, а не bool, например. Чтобы об этом не забывать, никакие неявные конверсии во время присвоения не делаются (см. выше, что с дробным числом 1.0 работает, а с целым числом 1 - нет). Другой момент - это что присвоение значения нового ключа для одной структуры автоматически инициализирует этот ключ со значением 0.0 для всех остальных структур (см. третий принцип в начале раздела). Ну и, наконец, p.as_table() генерирует вам данные всех ключей в виде словаря из листов.

Ещё полезно знать о возможности создания копий объектов Confpool.

# All these calls won't modify the original pool (p)
p_new = Confpool(p) # Creates a copy of p

p_new = p.sort("Energy", inplace=False) # Returns a modified copy of p
res = p.upper_cutoff("Energy", 2.0 * KC2H, inplace=False)
p_new = res['Object']
print(f"New pool ({p_new.size}) has {res['DelCount']} less structures compared to the initial one ({p.size})")

res = p.lower_cutoff("Energy", 2.0 * KC2H, inplace=False)
p_new = res['Object'] # Returns a modified copy of p
print(f"New pool ({p_new.size}) has {res['DelCount']} less structures compared to the initial one ({p.size})")

res = p.filter(lambda m: '69' in str(m["Energy"]), inplace=False)
p_new = res['Object'] # Returns a modified copy of p
print(f"The nice pool ({p_new.size}) has {res['DelCount']} less structures compared to the initial one ({p.size})")

res = p.rmsd_filter(0.2, inplace=False)
p_new = res['Object'] # Returns a modified copy of p
print(f"New pool ({p_new.size}) has {res['DelCount']} less structures compared to the initial one ({p.size})")

Небольшой комментарий насчет возможных багов: изоморфизмы без проблем копируются из старого объекта в новый, однако с молекулярным графом могут быть проблемы, так что, во избежание багов, перед вызовом generate_isomorphisms для нового объекта делайте для него вызов generate_connectivity.

# Case 1 - OK. p_new inherits isomorphisms from p
p_new = Confpool(p)
p_new.rmsd_filter(0.2) # OK if generate_connectivity and generate_isomorphisms were called for p

# Case 2 - might be bugged. Inherit molecular graph but generate isomorphisms from scratch
p_new = Confpool(p)
p_new.generate_isomorphisms()
p_new.rmsd_filter(0.2)

# Case 3 - OK. Generate graph AND isomorphisms from scratch
p_new = Confpool(p)
p_new.generate_connectivity(0, mult=1.3)
p_new.generate_isomorphisms()
p_new.rmsd_filter(0.2)

Ещё добавлю, что можно достаточно легко удалять ненужные структуры и ключи:

del p[0]
del p[p.size - 1]
del p["MyKey"]

Этот код удаляет первую и последнюю структуры в наборе, а затем удаляет ключ "MyKey" для всех оставшихся структур.

Для особо заинтересовавшихся на сайте с документацией приведен весь функционал библиотеки с короткими примерами кода.

TODO

  1. include_from_xyz shouldn't erase atom_symbols when they are already written by user
  2. Вариация класса Confpool для произвольных структур без ограничений на типы атомов
  3. Вариации класса Confpool с ключами произвольного (mutable) типа и значениями типа py::object.
  4. Search for VdW contacts
  5. copy constructor, operator+
  6. Прикрутить библиотеку, которая парсит логи квантовохимических программ