Yandex Cloud
Поиск
Связаться с намиПодключиться
  • Документация
  • Блог
  • Все сервисы
  • Статус работы сервисов
    • Популярные
    • Инфраструктура и сеть
    • Платформа данных
    • Контейнеры
    • Инструменты разработчика
    • Бессерверные вычисления
    • Безопасность
    • Мониторинг и управление ресурсами
    • Машинное обучение
    • Бизнес-инструменты
  • Все решения
    • По отраслям
    • По типу задач
    • Экономика платформы
    • Безопасность
    • Техническая поддержка
    • Каталог партнёров
    • Обучение и сертификация
    • Облако для стартапов
    • Облако для крупного бизнеса
    • Центр технологий для общества
    • Облако для интеграторов
    • Поддержка IT-бизнеса
    • Облако для фрилансеров
    • Обучение и сертификация
    • Блог
    • Документация
    • Контент-программа
    • Мероприятия и вебинары
    • Контакты, чаты и сообщества
    • Идеи
    • Истории успеха
    • Тарифы Yandex Cloud
    • Промоакции и free tier
    • Правила тарификации
  • Документация
  • Блог
Проект Яндекса
© 2025 ООО «Яндекс.Облако»
Yandex Object Storage
    • Все руководства
    • Получение статистики запросов к объекту с использованием S3 Select
    • Получение статистики посещения сайта с использованием S3 Select
    • Получение статистики запросов к объектам с использованием Yandex Query
    • Анализ поресурсной детализации расходов
    • Шифрование на стороне сервера
    • Интеграция L7-балансировщика с CDN и Object Storage
    • Сине-зеленое и канареечное развертывание версий сервиса
    • Анализ логов с использованием DataLens
    • Монтирование бакетов к файловой системе хостов Yandex Data Processing
    • Использование Object Storage в Yandex Data Processing
    • Импорт данных из Object Storage, обработка и экспорт в Managed Service for ClickHouse®
    • Подключение бакета как диска в Windows
    • Миграция данных из Yandex Data Streams с помощью Yandex Data Transfer
    • Использование гибридного хранилища в Yandex Managed Service for ClickHouse®
    • Загрузка данных из Yandex Managed Service for OpenSearch в Yandex Object Storage с помощью Yandex Data Transfer
    • Автоматическое копирование объектов из бакета в бакет
    • Регулярное асинхронное распознавание аудиофайлов в бакете
    • Обучение модели в Yandex DataSphere на данных из Object Storage
    • Подключение к Object Storage из VPC
    • Перенос данных в Yandex Managed Service for PostgreSQL с использованием Yandex Data Transfer
    • Загрузка данных в Yandex Managed Service for Greenplum® с помощью Yandex Data Transfer
    • Загрузка данных в Yandex Managed Service for ClickHouse® с помощью Yandex Data Transfer
    • Загрузка данных в Yandex Managed Service for YDB с помощью Yandex Data Transfer
    • Обмен данными между Yandex Managed Service for ClickHouse® и Yandex Data Processing
    • Загрузка данных из Yandex Managed Service for YDB с помощью Yandex Data Transfer
    • Хостинг статического сайта на фреймворке Gatsby в Object Storage
    • Миграция базы данных из Managed Service for PostgreSQL в Object Storage
    • Обмен данными между Yandex Managed Service for ClickHouse® и Yandex Data Processing
    • Импорт данных из Yandex Managed Service for PostgreSQL в Yandex Data Processing с помощью Sqoop
    • Импорт данных из Yandex Managed Service for MySQL® в Yandex Data Processing с помощью Sqoop
    • Миграция данных из Yandex Object Storage в Yandex Managed Service for MySQL® с помощью Yandex Data Transfer
    • Миграция базы данных из Yandex Managed Service for MySQL® в Yandex Object Storage
    • Выгрузка данных Greenplum® в холодное хранилище Yandex Object Storage
    • Загрузка данных из Яндекс Директ в витрину Yandex Managed Service for ClickHouse® с использованием Yandex Cloud Functions, Yandex Object Storage и Yandex Data Transfer
    • Миграция данных из Elasticsearch в Yandex Managed Service for OpenSearch
    • Загрузка состояний Terraform в Object Storage
    • Блокировка состояний Terraform с помощью Managed Service for YDB
    • Визуализация данных Yandex Query
    • Публикация обновлений для игр
    • Резервное копирование ВМ с помощью Хайстекс Акура
    • Резервное копирование в Object Storage с помощью CloudBerry Desktop Backup
    • Резервное копирование в Object Storage через Duplicati
    • Резервное копирование в Object Storage с помощью Bacula
    • Резервное копирование в Object Storage с помощью Veeam Backup
    • Резервное копирование в Object Storage с помощью Veritas Backup Exec
    • Резервное копирование кластера Managed Service for Kubernetes в Object Storage
    • Разработка пользовательской интеграции в API Gateway
    • Сокращатель ссылок
    • Хранение журналов работы приложения
    • Разработка навыка Алисы и сайта с авторизацией
    • Создание интерактивного serverless-приложения с использованием WebSocket
    • Развертывание веб-приложения с использованием Java Servlet API
    • Разработка Telegram-бота
    • Репликация логов в Object Storage с помощью Fluent Bit
    • Репликация логов в Object Storage с помощью Data Streams
    • Загрузка аудитных логов в SIEM ArcSight
    • Загрузка аудитных логов в SIEM Splunk
    • Создание сервера MLFlow для логирования экспериментов и артефактов
    • Работа с данными с помощью Yandex Query
    • Федеративные запросы к данным с помощью Query
    • Распознавание архива изображений в Vision OCR
    • Конвертация видео в GIF на Python
    • Автоматизация задач с помощью Managed Service for Apache Airflow™
    • Обработка файлов детализации в сервисе Yandex Cloud Billing
    • Развертывание веб-приложения с JWT-авторизацией в API Gateway и аутентификацией в Firebase
    • Поиск событий Yandex Cloud в Yandex Query
    • Поиск событий Yandex Cloud в Object Storage
    • Создание внешней таблицы на базе таблицы из бакета с помощью конфигурационного файла
    • Миграция базы данных из Google BigQuery в Managed Service for ClickHouse®
  • Справочник Terraform
  • Метрики Monitoring
  • Аудитные логи Audit Trails
  • Логи бакета
  • История изменений
  • Вопросы и ответы
  • Обучающие курсы

В этой статье:

  • Необходимые платные ресурсы
  • Перед началом работы
  • Создайте ресурсы Google Cloud
  • Создайте ресурсы Yandex Cloud
  • Перенесите данные из Google BigQuery в Yandex Object Storage
  • Настройте отображение данных из Yandex Object Storage в кластере Managed Service for ClickHouse®
  • Проанализируйте данные с помощью Yandex DataLens
  • Удалите созданные ресурсы
  1. Практические руководства
  2. Миграция базы данных из Google BigQuery в Managed Service for ClickHouse®

Миграция базы данных из Google BigQuery в Yandex Managed Service for ClickHouse®

Статья создана
Yandex Cloud
Обновлена 8 апреля 2025 г.
  • Необходимые платные ресурсы
  • Перед началом работы
    • Создайте ресурсы Google Cloud
    • Создайте ресурсы Yandex Cloud
  • Перенесите данные из Google BigQuery в Yandex Object Storage
  • Настройте отображение данных из Yandex Object Storage в кластере Managed Service for ClickHouse®
  • Проанализируйте данные с помощью Yandex DataLens
  • Удалите созданные ресурсы

Вы можете перенести базу данных из Google BigQuery в Yandex Managed Service for ClickHouse® и затем проанализировать ее с помощью Yandex DataLens.

Таблица переносится в сжатом виде в бакет Google Storage, а из него в бакет Yandex Object Storage. Затем данные импортируются в кластер Managed Service for ClickHouse®, где их можно проанализировать с помощью Yandex DataLens.

Такой способ миграции обладает следующими преимуществами:

  • возможность задать формат выгрузки данных и степень сжатия;
  • значительное сокращение объема данных и времени на их миграцию, а значит и снижение стоимости миграции.

Однако при таком способе данные переносятся как есть, без трансформации или копирования обновившихся инкрементов.

Чтобы перенести базу данных из Google BigQuery в Managed Service for ClickHouse®:

  1. Перенесите данные из Google BigQuery в Yandex Object Storage.
  2. Настройте отображение данных из Yandex Object Storage в кластере Managed Service for ClickHouse®.
  3. Проанализируйте данные с помощью Yandex DataLens.

Если созданные ресурсы вам больше не нужны, удалите их.

Необходимые платные ресурсыНеобходимые платные ресурсы

В стоимость поддержки описываемого решения входят:

  • Плата за кластер Managed Service for ClickHouse®: использование вычислительных ресурсов, выделенных хостам (в том числе хостам ZooKeeper), и дискового пространства (см. тарифы Managed Service for ClickHouse®).
  • Плата за использование публичных IP-адресов, если для хостов кластера включен публичный доступ (см. тарифы Virtual Private Cloud).
  • Плата за бакет Object Storage: хранение данных и выполнение операций с ними (см. тарифы Object Storage).
  • Плата за использование сервиса Yandex DataLens (см. тарифы DataLens).

Перед началом работыПеред началом работы

Для миграции базы данных необходимо создать ресурсы Google Cloud и ресурсы Yandex Cloud.

Создайте ресурсы Google CloudСоздайте ресурсы Google Cloud

  1. Создайте бакет Google Storage.

  2. Создайте сервисный аккаунт Google Cloud с ролями BigQuery Data Editor и Storage Object Admin.

  3. Создайте ключ доступа для сервисного аккаунта и сохраните его в виде файла .json.

  4. Скачайте и установите утилиты CLI google-cloud-sdk.

  5. Выполните аутентификацию в gcloud CLI.

  6. Установите Google BigQuery Python SDK. Для работы этого пакета потребуется Python версии 3.7 или выше.

  7. Подготовьте набор данных (датасет) для Google BigQuery. В качестве примера использован публичный датасет google_trends для Google BigQuery, содержащий таблицу international_top_terms со столбцами:

    • rank
    • country_name
    • country_code
    • region_name
    • week
    • score
    • region_code
    • term
    • refresh_date

Создайте ресурсы Yandex CloudСоздайте ресурсы Yandex Cloud

  1. Создайте сервисный аккаунт с ролью storage.uploader для доступа к бакету Object Storage.

  2. Создайте статический ключ доступа для сервисного аккаунта. Сохраните идентификатор ключа и секретный ключ, они понадобятся далее.

  3. Создайте кластер Managed Service for ClickHouse® любой подходящей конфигурации. При создании кластера:

    • укажите созданный ранее сервисный аккаунт.
    • включите параметр Доступ из DataLens.
  4. Включите отказоустойчивость с помощью хостов Zookeeper.

  5. Создайте бакет Object Storage. При создании включите публичный доступ на чтение объектов и к списку объектов в бакете.

Перенесите данные из Google BigQuery в Yandex Object StorageПеренесите данные из Google BigQuery в Yandex Object Storage

  1. Создайте файл credentials.boto с параметрами доступа к ресурсам Google Cloud и Yandex Cloud:

    [Credentials]
    gs_service_client_id  =<сервисный_аккаунт_Google_Cloud>
    gs_service_key_file   =<абсолютный_путь_к_JSON-файлу>
    aws_access_key_id     =<идентификатор_ключа_сервисного_аккаунта>
    aws_secret_access_key =<секретный_ключ_сервисного_аккаунта>
    
    [GSUtil]
      default_project_id    =<идентификатор_проекта_Google_Cloud>
    
    [s3]
      calling_format=boto.s3.connection.OrdinaryCallingFormat
      host=storage.yandexcloud.net
    

    Где:

    • gs_service_client_id — имя сервисного аккаунта Google Cloud вида service-account-name@project-id.iam.gserviceaccount.com.
    • gs_service_key_file — абсолютный путь к JSON-файлу ключа доступа сервисного аккаунта Google Cloud.
    • aws_access_key_id — идентификатор ключа сервисного аккаунта Yandex Cloud.
    • aws_secret_access_key — секретный ключ сервисного аккаунта Yandex Cloud.
    • default_project_id — идентификатор проекта Google Cloud.
  2. Создайте файл скрипта main.py, который выполняет сжатие и миграцию данных:

    main.py
    from google.cloud import bigquery
    import sys
    import argparse
    import time
    import subprocess
    import os
    os.environ["GOOGLE_APPLICATION_CREDENTIALS"]="<абсолютный_путь_к_JSON-файлу_ключа_доступа_сервисного_аккаунта_Google_Cloud>"
    os.environ["BOTO_CONFIG"]="<абсолютный_путь_к_файлу_credentials.boto>"
    
    def parse_args():
        parser = argparse.ArgumentParser(description='Export data from Google Big Query to Yandex Cloud object storage')
        parser.add_argument('--bq_project', type=str, help='GBQ project ID')
        parser.add_argument('--bq_location', type=str, help='GBQ table AND GS location')
        parser.add_argument('--gs_bucket', type=str, help='GS export destination bucket')
        parser.add_argument('--yc_bucket', type=str, help='YC copy destination bucket')
        parser.add_argument('--gsutil_path', type=str, help='GSutil exec path', default='gsutil')
        return parser.parse_args()
    
    def select_from_list(message, elements):
        print(message)
        print("\t{}. {}".format(0, "Export all"))
        for ind in range(len(elements)):
            if isinstance(elements[ind].reference, bigquery.DatasetReference):
                print("\t{}. {}".format(ind+1, elements[ind].reference.dataset_id))
            elif isinstance(elements[ind].reference, bigquery.TableReference):
                print("\t{}. {}".format(ind+1, elements[ind].reference.table_id))
        try:
            return int(input("(any letter for cancel) >> "))
        except ValueError:
            print("Exiting")
            sys.exit()
    
    if __name__ == '__main__':
        args = parse_args()
        client = bigquery.Client()
    
        datasets = list(client.list_datasets(args.bq_project))
        dataset_selector = select_from_list("Datasets in project {}".format(args.bq_project), datasets)
        export_list = []
        for i in range(len(datasets)):
            dataset_ref = datasets[i].reference
            if dataset_selector == 0:
                export_list += list(client.list_tables(dataset_ref))
            else:
                if i == dataset_selector - 1:
                    tables = list(client.list_tables(dataset_ref))
                    table_selector = select_from_list("Tables in dataset {}".format(dataset_ref.dataset_id),
                                                      tables)
                    for j in range(len(tables)):
                        if table_selector == 0 or j == table_selector - 1:
                            export_list.append(tables[j])
    
        print("Starting tables export")
        for n in range(len(export_list)):
            table_ref = export_list[n].reference
    
            # Creating Extract Job config. Selecting compression level and data format.
            job_config = bigquery.job.ExtractJobConfig()
            job_config.compression = bigquery.Compression.GZIP
            job_config.destination_format = bigquery.DestinationFormat.PARQUET
    
            print("Exporting {} table".format(table_ref.table_id))
            extract_job = client.extract_table(
                source=table_ref,
                destination_uris="gs://{}/{}".format(args.gs_bucket, "{}-*".format(table_ref.table_id)),
                job_id="export-job-{}-{}".format(table_ref.table_id, round(time.time() * 1000)),
                location=args.bq_location,
                job_config=job_config)
            extract_job.result()
        print("Tables export done")
    
        # Calling gsutil rsync to synchronize source and destination buckets.
        source_uri = "gs://{}/".format(args.gs_bucket)
        destination_uri = "s3://{}/".format(args.yc_bucket)
        print("Synchronizing {} with {}...".format(source_uri, destination_uri))
        proc = subprocess.Popen([args.gsutil_path, "-m", "rsync", source_uri, destination_uri],
                                stdout=sys.stdout,
                                stderr=sys.stderr)
        proc.communicate()
        print("Buckets synchronization done")
    
  3. Выполните скрипт main.py, чтобы запустить миграцию данных из Google BigQuery в бакет Google Storage, а затем в бакет Yandex Object Storage:

    python main.py \
        --bq_project=<идентификатор_проекта_Google_Cloud> \
        --bq_location=US \
        --gs_bucket=<имя_бакета_Google_Cloud_Storage> \
        --yc_bucket=<имя_бакета_Object_Storage>
    

    Дождитесь окончания миграции данных.

Настройте отображение данных из Yandex Object Storage в кластере Managed Service for ClickHouse®Настройте отображение данных из Yandex Object Storage в кластере Managed Service for ClickHouse®

  1. Чтобы создать представление импортированных данных, подключитесь к базе данных кластера Managed Service for ClickHouse® и выполните SQL-запрос:

    CREATE view db1.v$google_top_rising_terms on cluster on cluster '{cluster}' AS
    (SELECT
    term,
    score,
    rank,
    country_name,
    country_code,
    region_name,
    region_code,
    week,
    refresh_date
    FROM s3Cluster(
      '<идентификатор_кластера>',
      'https://storage.yandexcloud.net/<имя_бакета_Object_Storage>/top_terms-*',
      'Parquet',
      'rank Int32,
      country_name String,
      country_code String,
      region_name String,
      week Timestamp,
      score Nullable(Int32),
      region_code String,
      term String,
      refresh_date Timestamp')
    )
    

    Где:

    • db1 — название базы данных в кластере Managed Service for ClickHouse®, в которой требуется создать представление.
    • v$google_top_rising_terms — название представления для отображения импортированных данных.
    • <идентификатор_кластера> — идентификатор кластера Managed Service for ClickHouse®. Его можно получить вместе со списком кластеров в каталоге.
    • top_terms-* — ключевая часть имени объектов бакета Object Storage. Например, если из Google Cloud вы перенесли таблицу, в которой есть строки с именем top_terms, то в бакете Object Storage они будут выглядеть как набор объектов с именами top_terms-000000000001, top_terms-000000000002 и т. д. Тогда в SQL-запросе нужно указать top_terms-*, чтобы в представление попали все записи с таким именем из этой таблицы.
  2. Чтобы вывести первые 100 записей из созданного представления, выполните SQL-запрос (для примера используется представление v$google_top_rising_terms и базе данных db1):

    SELECT * FROM db1.v$google_top_rising_terms limit 100
    

Проанализируйте данные с помощью Yandex DataLensПроанализируйте данные с помощью Yandex DataLens

  1. Подключите кластер Managed Service for ClickHouse® к DataLens.

  2. Создайте датасет из таблицы db1.v$google_top_rising_terms. Для поля score выберите агрегацию по среднему значению.

  3. Создайте столбчатую диаграмму:

    1. В секцию X перетащите поле country_name.
    2. В секцию Y перетащите поле score.
    3. В секцию Фильтры перетащите поле term. В открывшейся форме задайте параметры:
      • Операция — Принадлежит множеству.
      • Доступны — введите термин из списка доступных и нажмите кнопку Применить фильтр.
    4. В секцию Сортировка перетащите поле term.

Использование заданного запроса в поисковой системе будет проанализировано, результат будет выведен в виде столбчатой диаграммы по странам.

Удалите созданные ресурсыУдалите созданные ресурсы

Удалите ресурсы, которые вы больше не будете использовать, чтобы за них не списывалась плата:

  1. Удалите кластер Managed Service for ClickHouse®.
  2. Удалите все объекты бакета Object Storage и затем удалите сам бакет.
  3. Удалите бакет Google Storage.

ClickHouse® является зарегистрированным товарным знаком ClickHouse, Inc.

Была ли статья полезна?

Предыдущая
Создание внешней таблицы на базе таблицы из бакета с помощью конфигурационного файла
Следующая
Обзор
Проект Яндекса
© 2025 ООО «Яндекс.Облако»