Pipeline com _PROCESSING_TIMESTAMP sempre igual em pipeline Incremental

Tenho uma pipeline incremental no Dadosfera tech que pega dados de um bucket no S3 e adiciona um arquivo novo por dia na tabela da Dadosfera. Como é só um arquivo novo por dia, o comportamento esperado é que a tabela desta pipeline gerasse um `__PROCESSING_TIMESTAMP_` para cada dado novo. Contudo, todos os dados, até mesmo os antigos, ficam com o `__PROCESSING_TIMESTAMP_` mais atual. Hoje é dia 13/03/24 e mesmo dados de fevereiro estão com o timestamp mais atual - e não houve modificação nestes arquivos. Por que isso ocorre? O id da pipeline em que isso está ocorrendo é: 85b7ab00-7f23-4020-b540-aad59b9bc8d2

Ambiente de demo não encontra env var

Estou tentando acrescentar uma variável de ambiente em um dataapp no módulo de inteligência. Porém, mesmo quando eu coloco a variável de ambiente no projeto, desligando e a sessão do dataapp, ele não reconhece as variáveis de ambiente. Até rebuildei o projeto, mas não teve efeito. Como posso resolver?

Conexão Snowflake no módulo de inteligência

Necessito de auxílio com o conector do snowflake. Apesar de não estar acusando erro ao gerar um arquivo ou variável ela não fica com a tabela, mas sim com a query escrita. Já chequei em outros projetos e não há diferença entre o step que estou utilizando (Copiado da stepsfera no ambiente demo) para esse outros projetos (em outros ambientes). Preciso dos dados da tabela no orchest para utilizar no data app em desenvolvimento.

Problema para subir a dadosferalib

Ao tentar instalar a dadosferalib no environment 5d0bb273-5491-4ac4-a2a2-ba32282567fd utilizando o seguinte script: # !/bin/bash sudo apt-get update sudo apt-get install gettext -y chmod +x ./compile_translations pip3 install pyOpenSSL --upgrade pip3 install awscli chardet requests anybase32 pandas snowflake-snowpark-python snowflake pip3 install streamlit pip install geopy folium pip install -r requirements.txt aws codeartifact login --tool pip --domain dadosfera --domain-owner 611330257153 --region us-east-1 --repository dadosfera-pip pip3 install dadosfera==1.5.0 dadosfera_logs==1.0.3 Estou obtendo como erro que a biblioteca não está sendo encontrada. Também tentei usando a imagem Custom: dadosfera/base-kernel-py:1.0.2 e obtive o mesmo erro. ### Traceback do erro ```Text shell Traceback (most recent call last): File "/project-dir/get_table_from_snowflake/get_table_from_snowflake.py", line 1, in <module> from dadosfera.services.snowflake import get_snowpark_session File "/project-dir/get_table_from_snowflake/dadosfera/services/snowflake.py", line 2, in <module> import snowflake.connector File "/opt/conda/lib/python3.9/site-packages/snowflake/connector/__init__.py", line 19, in <module> from .connection import SnowflakeConnection File "/opt/conda/lib/python3.9/site-packages/snowflake/connector/connection.py", line 33, in <module> from . import errors, proxy File "/opt/conda/lib/python3.9/site-packages/snowflake/connector/errors.py", line 18, in <module> from .telemetry_oob import TelemetryService File "/opt/conda/lib/python3.9/site-packages/snowflake/connector/telemetry_oob.py", line 22, in <module> from .vendored import requests File "/opt/conda/lib/python3.9/site-packages/snowflake/connector/vendored/requests/__init__.py", line 119, in <module> from ..urllib3.contrib import pyopenssl File "/opt/conda/lib/python3.9/site-packages/snowflake/connector/vendored/urllib3/contrib/pyopenssl.py", line 50, in <module> import OpenSSL.crypto File "/opt/conda/lib/python3.9/site-packages/OpenSSL/__init__.py", line 8, in <module> from OpenSSL import SSL, crypto File "/opt/conda/lib/python3.9/site-packages/OpenSSL/SSL.py", line 34, in <module> from OpenSSL.crypto import ( File "/opt/conda/lib/python3.9/site-packages/OpenSSL/crypto.py", line 945, in <module> utils.deprecated( TypeError: deprecated() got an unexpected keyword argument 'name' ```
ANSWERED

O carregamento da pipeline sessions não está acontecendo.

![](https://files.readme.io/021ac75-image.png)
ANSWERED

Sem acesso!

![](https://files.readme.io/2f7476f-image.png) Olá, desde ontem estou enfrentando alguns problemas. Perdi acesso ao kernel e módulo de inteligência. Consegui resolver, porém, agora caiu o serviço. Não sei se é um problema específico da minha conta. OBS: consigo acessar o ambiente dadosfera, somente o módulo de inteligência que ocorre esse erro!
ANSWERED

Perdendo conexão com o kernel e ambiente de inteligência

A partir de sexta a tarde 25/08, comecei a perde a conexão com o kernel. E hoje 26/08, até o enviado dessa mensagem, estou sem acesso ao ambiente de inteligência.
ANSWERED

Upload dos pipelines no dirétório /data na camada de inteligência [Speed Hackathon IA Generativa]

Primeiro criei a conexão (importação unica), definir os pipelines, resultado foi que dados das planilhas não foram carregados, mas entendi que a tabulação sim foi compreendida já que não apareceu nenhum erro, então subir cada arquivo .csv no menu "importar arquivos" , assim foi automaticamente cada pipeline recebeu automaticamente os dados do respectivo arquivo .csv Mas, tinha entendido que após os dados estiverem na pipeline automaticamente eles constaria em /data na camada de inteligência, perdi algo? Até o momento subir manualmente os arquivos na camada de inteligência.
ANSWERED

Estruturação do problema

Bom dia, tudo bom? Tenho uma dúvida. Criei um notebook que analisa sentimento de clientes classificando como positivo ou negativo. Porém, na mesma base de dados não conseguirei gerar modelos que respondam as outras questões propostas: tendências de consumo devido a sazonalidade, por exemplo, uma vez que minha base não dispõe dessas informações. Pensei em utilizar várias bases (vários notebooks), tratando cada problema de forma individual, e posteriormente faria a união dessas informações. É possível fazer dessa forma? Ou orientam utilizar apenas uma base para extrair todas informações?
ANSWERED

Problemas com carregamento da sessão

Bom dia, o Pipeline sessions não está carregando e desta forma não consigo acesso um data apps rodando. O indicador de processamento da Pipeline sessions fica girando sem parar.