Skip to content
Closed
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
The table of contents is too big for display.
Diff view
Diff view
  •  
  •  
  •  
6 changes: 3 additions & 3 deletions docs/integrations/data-ingestion/clickpipes/kafka/index.md
Original file line number Diff line number Diff line change
Expand Up @@ -15,9 +15,9 @@ integration:
<!--AUTOGENERATED_START-->
| Page | Description |
|-----|-----|
| [Reference](/integrations/clickpipes/kafka/reference) | Details supported formats, sources, delivery semantics, authentication and experimental features supported by Kafka ClickPipes |
| [Schema registries for Kafka ClickPipe](/integrations/clickpipes/kafka/schema-registries) | How to integrate for ClickPipes with a schema registry for schema management |
| [Creating your first Kafka ClickPipe](/integrations/clickpipes/kafka/create-your-first-kafka-clickpipe) | Step-by-step guide to creating your first Kafka ClickPipe. |
| [Kafka ClickPipes FAQ](/integrations/clickpipes/kafka/faq) | Frequently asked questions about ClickPipes for Kafka |
| [Schema registries for Kafka ClickPipe](/integrations/clickpipes/kafka/schema-registries) | How to integrate for ClickPipes with a schema registry for schema management |
| [Reference](/integrations/clickpipes/kafka/reference) | Details supported formats, sources, delivery semantics, authentication and experimental features supported by Kafka ClickPipes |
| [Best practices](/integrations/clickpipes/kafka/best-practices) | Details best practices to follow when working with Kafka ClickPipes |
| [Kafka ClickPipes FAQ](/integrations/clickpipes/kafka/faq) | Frequently asked questions about ClickPipes for Kafka |
<!--AUTOGENERATED_END-->
11,936 changes: 7,046 additions & 4,890 deletions gt-lock.json

Large diffs are not rendered by default.

Original file line number Diff line number Diff line change
Expand Up @@ -330,7 +330,7 @@ WHERE id = 'abc123-def456-789'
```

増分バックアップを作成することも可能です。
バックアップ全般の詳細については、[backup and restore](/operations/backup) ドキュメントを参照してください。
バックアップ全般の詳細については、[backup and restore](/operations/backup/overview) ドキュメントを参照してください。


## ClickHouse Cloud へのリストア \{#restore-to-clickhouse-cloud\}
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -7,7 +7,6 @@ doc_type: 'reference'
---

import Image from '@theme/IdealImage';
import BetaBadge from '@theme/badges/BetaBadge';
import image_1 from '@site/static/images/deployment-guides/parallel-replicas-1.png'
import image_2 from '@site/static/images/deployment-guides/parallel-replicas-2.png'
import image_3 from '@site/static/images/deployment-guides/parallel-replicas-3.png'
Expand All @@ -18,8 +17,6 @@ import image_7 from '@site/static/images/deployment-guides/parallel-replicas-7.p
import image_8 from '@site/static/images/deployment-guides/parallel-replicas-8.png'
import image_9 from '@site/static/images/deployment-guides/parallel-replicas-9.png'

<BetaBadge />

## はじめに \{#introduction\}

ClickHouse はクエリを非常に高速に処理しますが、これらのクエリはどのようにして
Expand Down Expand Up @@ -308,7 +305,7 @@ Keeper クラスタは、メタデータに関する単一の信頼できる情
| `cluster_for_parallel_replicas` | 並列レプリケーションに使用するクラスタ名。ClickHouse Cloud を使用している場合は `default` を指定します。 |
| `max_parallel_replicas` | 複数レプリカ上でクエリを実行する際に使用するレプリカの最大数。クラスタ内のレプリカ数より小さい値を指定した場合、ノードはランダムに選択されます。この値は水平方向のスケーリングを考慮してオーバーコミットとして設定することもできます。 |
| `parallel_replicas_min_number_of_rows_per_replica` | 処理が必要な行数に基づいて使用するレプリカ数を制限するのに役立ちます。使用されるレプリカ数は次の式で決まります:<br /> `estimated rows to read` / `min_number_of_rows_per_replica`. |
| `allow_experimental_analyzer` | `0`: 旧アナライザを使用<br /> `1`: 新アナライザを使用 <br /><br />使用するアナライザによって、並列レプリカの動作が変わる場合があります。 |
| `enable_analyzer` | 並列レプリカを用いたクエリ実行は、アナライザが有効化されている場合にのみサポートされます。 |

## パラレルレプリカに関する問題の調査 \{#investigating-issues-with-parallel-replicas\}

Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -186,7 +186,7 @@ ARRAY JOIN
└──────┴─────────┴─────────────┴────────┘
```

データを取得する際には、`Map` を集計するために [sumMap(key, value)](../../../sql-reference/aggregate-functions/reference/sumMap.md) 関数を使用します。
データを取得する際には、`Map` を集計するために [sumMap(key, value)](../../../sql-reference/aggregate-functions/reference/sumMappedArrays.md) 関数を使用します。

ネストしたデータ構造の場合は、合計対象カラムのタプル内で、その構造内のカラムを個別に指定する必要はありません。

Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -322,7 +322,7 @@ SELECT count() FROM tab WHERE has(array, 'clickhouse');

#### `mapContains` \{#functions-example-mapcontains\}

[mapContains](/sql-reference/functions/tuple-map-functions#mapContains) 関数(`mapContainsKey` のエイリアス)は、検索対象の文字列から抽出されたトークンを map のキーと照合します。
[mapContains](/sql-reference/functions/tuple-map-functions#mapContainsKey) 関数(`mapContainsKey` のエイリアス)は、検索対象の文字列から抽出されたトークンを map のキーと照合します。
動作は、`String` カラムに対する `equals` 関数と同様です。
テキストインデックスが使用されるのは、`mapKeys(map)` 式に対して作成されている場合のみです。

Expand Down Expand Up @@ -604,7 +604,7 @@ Prewhere filter column: and(__text_index_idx_col_like_d306f7c9c95238594618ac23eb
```

2つ目の EXPLAIN PLAN の出力では、フィルター条件に追加の連言条件(`__text_index_...`)が加えられていることが分かります。
[PREWHERE](docs/sql-reference/statements/select/prewhere) 最適化により、フィルター条件は3つの個別の連言条件に分解され、計算コストが低いものから順に適用されます。
[PREWHERE](/sql-reference/statements/select/prewhere) 最適化により、フィルター条件は3つの個別の連言条件に分解され、計算コストが低いものから順に適用されます。
このクエリでは、適用順序は `__text_index_...`、次に `greaterOrEquals(...)`、最後に `like(...)` となります。
この順序付けにより、テキスト索引と元のフィルター条件でスキップされるグラニュールに加えて、クエリの `WHERE` 句以降で使用される重いカラムを読み込む前に、さらに多くのデータグラニュールをスキップできるため、読み取るデータ量を一層削減できます。

Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -45,7 +45,7 @@ doc_type: 'guide'
`INSERT ... VALUES` クエリでは、挿入されたデータをブロックに分割する処理は決定論的であり、設定によって決まります。そのため、最初の操作と同じ設定値を使用して挿入を再試行する必要があります。

`INSERT ... SELECT` クエリでは、クエリの `SELECT` 部分が各操作で同じ順序の同じデータを返すことが重要です。これは実運用では達成が難しい点に留意してください。再試行時のデータ順序を安定させるために、クエリの `SELECT` 部分で `ORDER BY ALL` 句を定義してください。現時点では、クエリ内で厳密に `ORDER BY ALL` を使用する必要があります。`ORDER BY` のサポートはまだ実装されておらず、その場合クエリの `SELECT` 部分は安定したものとは見なされません。再試行の間に、参照しているテーブルが更新される可能性があることも考慮する必要があります。この場合、結果データが変化し、重複排除は行われません。さらに、大量のデータを挿入する状況では、挿入後のブロック数が重複排除ログのウィンドウを超えてしまい、ClickHouse がブロックを重複排除すべきかどうか判断できなくなる可能性があります。
現時点では、`INSERT ... SELECT` の動作は [`insert_select_deduplicate`](/operations/settings/settings/#insert_select_deduplicate) 設定で制御されます。この設定は、`INSERT ... SELECT` クエリを使用して挿入されたデータに重複排除を適用するかどうかを決定します。詳細および使用例については、リンク先のドキュメントを参照してください。
現時点では、`INSERT ... SELECT` の動作は `insert_select_deduplicate` 設定で制御されます。この設定は、`INSERT ... SELECT` クエリを使用して挿入されたデータに重複排除を適用するかどうかを決定します。詳細および使用例については、リンク先のドキュメントを参照してください。

## マテリアライズドビューによる挿入の重複排除 \{#insert-deduplication-with-materialized-views\}

Expand Down
Loading