@@ -57,7 +57,7 @@ SECRET_NAME=mr-api-datastream-credential
57
57
# Database secrets for the datastream postgres user
58
58
gcloud secrets create $SECRET_NAME --replication-policy user-managed --project $PROJECT --locations europe-north1
59
59
60
- kubectl --context prod-gcp get secret google-sql-mulighetsrommet-api-mulighetsrommet-api-db--184f872d -o json \
60
+ kubectl --context $CLUSTER get secret google-sql-mulighetsrommet-api-mulighetsrommet-api-db--184f872d -o json \
61
61
| jq -r ' .data | map_values(@base64d) | { username: .DB_DATASTREAM_USERNAME, password: .DB_DATASTREAM_PASSWORD }' \
62
62
| gcloud secrets versions add mr-api-datastream-credentials --project $PROJECT --data-file=-
63
63
```
@@ -128,8 +128,12 @@ terraform state show <resource_name>
128
128
terraform destroy
129
129
```
130
130
131
- ### Vanlige feil
131
+ ### Feilsøking
132
132
133
- - Første gang ` terraform apply ` kjøres så kan det være at bigquery views ikke blir opprettet.
134
- Dette skjer fordi de er avhengig av at tabellene finnes i dataset'et, men det kan være at disse enda ikke er opprettet
135
- av datastreamen. Det burde fungere å kjøre ` apply ` på nytt når tabellene har blitt replikert til bigquery.
133
+ - ** Hvofor feiler ` terraform apply ` første gang det kjøres?** Første gang ` terraform apply ` kjøres så kan det være at
134
+ bigquery views ikke blir opprettet. Dette skjer fordi de er avhengig av at tabellene finnes i dataset'et, men det vil
135
+ typisk ta litt tid før disse tabellene blir opprettet av datastreamen. Det burde fungere å kjøre ` terraform apply ` på
136
+ nytt når tabellene har blitt replikert til BigQuery.
137
+ - ** Hvorfor ser jeg ikke oppdatert data i BigQuery?** Standard innstilling for ` bigquery_table_freshness ` er satt til
138
+ 1t, som betyr at det kan ta like lang tid før endringer i data er tilgjengelig i BigQuery. Dette kan endres i
139
+ Datastream-innstillingene, men merk at dette også øker kostnadene av tjenesten.
0 commit comments