+7 495 142 04 22
welcome@gals.software
© 2021 Gals Software
Elasticsearch

Элементарный тюнинг производительности Elasticsearch

"Есть несколько простых способов повысить производительность вашего кластера."
Александр Романюк
автор, инженер-проектировщик систем мониторинга
В этой статье в свободном изложении перескажу опыт компании eBay, который мы используем в своей работе. В компании на момент публикации оригинальной статьи использовалось более 60 кластеров Elasticsearch, состоящих из более 2000 узлов. Ежедневный объём индексации достигает 18 миллиардов документов, а ежедневные поисковые запросы достигают 3,5 миллиардов документов.

Вызовы, с которыми они столкнулись:

  • Высокая пропускная способность: некоторые кластеры принимают до 5 ТБ данных в день, а некоторые обрабатывают более 400 миллионов поисковых запросов в день. Очередь запросов могут накапливаться, если Elasticsearch не успевает вовремя их обработать.
  • Низкая задержка поиска: для кластеров, критически важных для производительности, особенно для систем, используемым сайтом, обязательна низкая задержка поиска, иначе это повлияет на работу пользователей.
  • Оптимальные настройки всегда меняются, поскольку данные или запрос могут со временем измениться. Не существует оптимальной настройки для всех сценариев использования. Например, разбиение индекса на большее количество шардов было бы полезно для выполнения трудоемких запросов, но может снизить производительность других запросов. Важна золотая середина.

[logstash-8.x]
name=Elastic repository for 8.x packages
baseurl=https://artifacts.elastic.co/packages/8.x/yum
gpgcheck=1
gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch
enabled=1
autorefresh=1
type=rpm-md
После этого, установим его. Обращаю внимание пользователей из России: сделать это вы сможете только при включенном VPN, т.к. Elastic ограничил возможность работы с дистрибутивами с российских IP-адресов.
dnf install logstash
У Logstash множество плагинов, которые позволяют извлекать данные из определенных источников. jdbc — это Java API для доступа к базам данных и выполнения запросов. Oracle, PostgreSQL и MySQL совместимы с jdbc, и можно свободно использовать этот адаптер для извлечения данных из перечисленных БД. Теперь установим jdbc-плагин:
/usr/share/logstash/bin/logstash-plugin install logstash-input-jdbc
Также понадобится библиотека jdbc для чтения данных из PostgreSQL. Загрузить последнюю версию jdbc 4.2 можно отсюда. Скачанный пакет нужно поместить в эту папку:
/usr/share/logstash/logstash-core/lib/jars
Теперь можно использовать Logstash для синхронизации данных реляционной БД PostgreSQL с Elasticsearch. Следом создадим файлы конфигурации Logstash, чтобы указать входные данные в качестве запроса и куда записать в качестве вывода. После этой настройки Logstash начнет синхронизировать данные. В папке /etc/logstash есть файл logstash.yml для управления общими настройками Logstash. Подробности конфигурирования можно посмотреть здесь. Установим следующую настройку, чтобы можно было использовать escape-символы в запросах к PostgreSQL из Logstash.
config.support_escapes: true
Давайте представим, что у нас есть такая таблица в PostgreSQL и что мы хотим синхронизировать данные из неё с Elasticsearch:
USERS
UserID int
UserName varchar
Email varchar
CreatedAt timestamp
Сначала создадим файл конфигурации в /etc/logstash/conf.d с именем usersync.conf:
input {
  jdbc {
     jdbc_connection_string => "jdbc:postgresql://localhost:5432/testdatabase"
     jdbc_user => "db_user"
     jdbc_password => "db_password"
     jdbc_driver_class => "org.postgresql.Driver"
     statement => "SELECT * from public.\"Users\""
 }
}
output {
  elasticsearch {
    hosts => [“http://localhost:9200"]
    index => “users”
    document_id => “users_%{userid}”
    doc_as_upsert => true
    #user => “es_user”
    #password => “es_password”
 }
}
В разделе input конфигурации указываем строку подключения, имя пользователя, пароль и запрос, который будет выполняться для синхронизации. Этот запрос может быть простым или сложным комплексным запросом.

В разделе output конфигурации определяем адрес Elasticsearch и указываем в какой индекс Elasticsearch синхронизировать данные. Можете использовать существующий индекс или попросить Logstash создать новый. Чтобы предотвратить дублирование данных, нужно установить определённый document_id для Elasticsearch. Например, вы можно использовать PK (primary key) в качестве document_id для обновления существующих данных, если исходные данные вдруг изменяются. Также вы можно объединить несколько полей или строк в качестве document_id. В этом примере document_id установлен как tablename_PK (users_{userid}). doc_as_upsert означает, что Elasticsearch создаст новый документ, если документа с таким document_id не существует, в противном случае выполнит обновление существующего документа. Более подробно о выводе в Elasticsearch можно узнать по ссылке.

Можно создать несколько файлов конфигурации для каждого процесса синхронизации. Чтобы не путать эти процессы синхронизации, их нужно разделить их на отдельные конвейеры. Конвейеры Logstash — это изолированные пакеты процессов. Они могут иметь разные входы и выходы, а также иметь разные параметры долговечности. Для каждого файла конфигурации можно создать отдельный конвейер. Пайплайнами нужно управлять в файле pipelines.yml, расположенном в /etc/logstash. Пример конфигурации:
- pipeline.id: users-pipeline
 path.config: “/etc/logstash/conf.d/usersync.conf"
 
- pipeline.id: orders-pipeline
 path.config: "/etc/logstash/conf.d/logstash-ordersync.conf"
Теперь можно запускать синхронизацию. Перезапустим сервис Logstash:
systemctl enable logstash --now
После этого Logstash периодически будет выполнять синхронизацию и создавать новые документы.

Спасибо за внимание!
Что дальше

Приглашаем на семинар-инструктаж по Elastic Stack 8

21-23 декабря 2022 года
Другие наши статьи об Elastic
Есть вопросы или предложения?
Вы можете написать здесь и при необходимости приложить файлы.
Нажимая на кнопку, вы даете согласие на обработку персональных данных и соглашаетесь c политикой конфиденциальности.