Tabla de contenido
Cloud Connector es la forma en que Procore comparte datos, inteligencia y análisis con los clientes. Esto se puede compartir directamente con herramientas de informes como Power BI o Tableau. También se puede compartir con los almacenes de datos, las tiendas, los lagos u otras aplicaciones de los clientes. Los clientes pueden incluso crear acceso programático a sus datos utilizando Cloud Connector para una verdadera automatización. Cloud Connector se basa en el protocolo de uso compartido abierto de Delta Share.
Delta Sharing es el primer protocolo abierto de la industria para el intercambio seguro de datos, lo que simplifica el intercambio de datos con otras organizaciones, independientemente de las plataformas informáticas que utilicen. Muchas aplicaciones pueden acceder a los datos con Delta Share. Sin embargo, para mejorar aún más la experiencia del cliente, Procore ha añadido conectores, código prediseñado y guías para las siguientes plataformas, lo que reduce el tiempo y la complejidad de la configuración para permitir una conexión perfecta y lista para usar.
Próximamente habrá más conectores de datos.
Hay documentación completa y ejemplos de códigos disponibles en el producto Procore Analytics directamente en la aplicación web de Procore a la que pueden acceder los administradores de Procore. Estos recursos proporcionan instrucciones paso a paso, fragmentos de código y buenas prácticas para ayudarlo a configurar y gestionar su integración de datos de manera efectiva.
Continúe con la siguiente sección de esta guía para comenzar el proceso de configuración.
Para consultas o asistencia adicionales, póngase en contacto con su gestor de cuentas o con nuestro equipo de soporte.
Debe asegurarse de que se asignen los permisos adecuados para generar un token de acceso para poder comenzar a conectar sus datos de Procore a su solución de BI. El acceso a Analytics está vinculado a sus credenciales de inicio de sesión de Procore, lo que le permite generar un token de acceso único. El token de acceso es una cadena de dígitos que introducirá en el sistema de BI para acceder a los datos.
Normalmente, los usuarios que necesitan tokens de acceso son ingenieros de datos o desarrolladores de Power BI. Si tiene acceso a Analytics en varias empresas, su token le permitirá extraer datos de todas ellas. El token está vinculado a usted, no a una empresa específica, por lo que sigue siendo el mismo en todas las empresas a las que tiene acceso.
A los administradores de la empresa y del proyecto se les otorgará un rol de Administrador de forma predeterminada. Se permiten los siguientes niveles de acceso de usuario para la herramienta Analytics:
El acceso a los datos en la herramienta Analytics se revocará cuando se eliminen los permisos de un usuario para la herramienta. Además, si el registro de contacto de un usuario se vuelve inactivo, este también perderá el acceso a los datos de Analytics.
Para comenzar a acceder a sus datos de Procore, hay dos opciones para generar sus credenciales de acceso a datos: el método de conexión directa de Databricks o el método de token de recurso compartido delta. El token de acceso es una cadena de dígitos que introducirá en el conector de datos correspondiente para acceder a los datos.


La herramienta Procore Analytics Cloud Connect Access es una interfaz de línea de comandos (CLI) que ayuda a configurar y gestionar las transferencias de datos de Procore a MS SQL Server. Consta de dos componentes principales:
Esto le ayudará a configurar lo siguiente:
Después de la configuración, tiene dos opciones para ejecutar la sincronización de datos:
{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "https://nvirginia. nube.databricks.c...astores/xxxxxx "
}
Deberá proporcionar los siguientes detalles de MS SQL Server:




Esta guía proporciona instrucciones detalladas para configurar y utilizar el paquete de integración de uso compartido delta en un sistema operativo Windows para integrar sin problemas los datos en sus flujos de trabajo con Procore Analytics. El paquete admite múltiples opciones de ejecución, lo que le permite elegir la configuración y el método de integración deseados.
Asegúrese de tener lo siguiente antes de continuar:

{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "https://nvirginia. nube.databricks.c...astores/xxxxxx "
}

También puede verificar la planificación ejecutando el comando en el terminal:
Para Linux y MacO:
Para editar/eliminar: edite el cron de planificación usando:
```golpe
EDITOR=nano crontab -e
```
Para Windows:
Pregunta de ejecución inmediata:
Problemas comunes y soluciones
Soporte
Para obtener ayuda adicional:
Notas
Esta guía proporciona instrucciones detalladas para configurar y utilizar el paquete de integración de uso compartido delta en un sistema operativo Windows para integrar sin problemas los datos en sus flujos de trabajo con Procore Analytics. El paquete admite múltiples opciones de ejecución, lo que le permite elegir la configuración y el método de integración deseados.
Asegúrese de tener lo siguiente antes de continuar:

{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "https://nvirginia. nube.databricks.c...astores/xxxxxx "
}

También puede verificar la planificación ejecutando el comando en el terminal:
Para Linux y MacO:
Para editar/eliminar: edite el cron de planificación usando:
```golpe
EDITOR=nano crontab -e
```
Para Windows:
Pregunta de ejecución inmediata:
Problemas comunes y soluciones
Soporte
Para obtener ayuda adicional:
Notas
Esta guía le guiará a través de la configuración e implementación de una función de Azure para integrar datos de colaboración delta con Procore Analytics. La función de Azure permite un procesamiento de datos eficiente y flujos de trabajo compartidos con perfiles de colaboración delta.
ir a
para obtener instrucciones sobre cómo instalar Azure Functions Herramientas esenciales.
Esta guía proporciona instrucciones detalladas para configurar y utilizar el paquete de integración de uso compartido delta en un sistema operativo Windows para integrar sin problemas los datos en sus flujos de trabajo con Procore Analytics. El paquete admite múltiples opciones de ejecución, lo que le permite elegir la configuración y el método de integración deseados.
Asegúrese de tener lo siguiente antes de continuar:

{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "https://nvirginia. nube.databricks.c...astores/xxxxxx "
}

También puede verificar la planificación ejecutando el comando en el terminal:
Para Linux y MacO:
Para editar/eliminar: edite el cron de planificación usando:
```golpe
EDITOR=nano crontab -e
```
Para Windows:
Pregunta de ejecución inmediata:
Problemas comunes y soluciones
Soporte
Para obtener ayuda adicional:
Notas
Esta guía proporciona instrucciones detalladas para configurar y utilizar el paquete de integración de uso compartido delta en un sistema operativo Windows para integrar sin problemas los datos en sus flujos de trabajo con Procore Analytics. El paquete admite múltiples opciones de ejecución, lo que le permite elegir la configuración y el método de integración deseados.
Asegúrese de tener lo siguiente antes de continuar:

{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "https://nvirginia. nube.databricks.c...astores/xxxxxx "
}

También puede verificar la planificación ejecutando el comando en el terminal:
Para Linux y MacO:
Para editar/eliminar: edite el cron de planificación usando:
```golpe
EDITOR=nano crontab -e
```
Para Windows:
Pregunta de ejecución inmediata:
Problemas comunes y soluciones
Soporte
Para obtener ayuda adicional:
Notas
La integración del uso compartido delta con Microsoft Fabric Data Factory permite el acceso y el procesamiento sin problemas de las tablas delta compartidas para sus flujos de trabajo de análisis con Procore Analytics 2.0. Delta Sharing, un protocolo abierto para la colaboración segura de datos, garantiza que las organizaciones puedan compartir datos sin duplicación.




Después de configurar el flujo de datos, ahora puede aplicar transformaciones a los datos delta compartidos. Elija su opción de datos compartidos delta de la lista siguiente:
Pruebe sus flujos y canalizaciones de datos para garantizar una ejecución sin problemas. Utilice herramientas de supervisión dentro de los datos.
Factory para realizar un seguimiento del progreso y los registros de cada actividad.
El uso de Data Factory en Microsoft Fabric con uso compartido delta permite una integración y un procesamiento perfectos de las tablas delta compartidas como parte de sus flujos de trabajo de análisis con Procore Analytics 2.0. Delta Sharing es un protocolo abierto para compartir datos de forma segura, lo que permite la colaboración entre organizaciones sin duplicar datos.
Esta guía le indica los pasos para configurar y utilizar Data Factory in Fabric con uso compartido delta, utilizando blocs de notas para procesar y exportar datos a un lago.



3. Copie el código de ds_to_lakehouse.py y péguelo en la ventana del cuaderno (Pyspark Python):

El siguiente paso es cargar su propio config.yaml y config.share en la carpeta Resources de Lakehouse. Puede crear su propio directorio o utilizar un directorio integrado (ya creado para recursos por Lakehouse):


El siguiente ejemplo muestra un directorio integrado estándar para un archivo config.yaml.
Nota: asegúrese de cargar ambos archivos en el mismo nivel y para la propiedad config_path:

4. Verifique el código del bloc de notas, líneas 170-175.
El siguiente ejemplo muestra los cambios de línea necesarios:
ruta_config = "./env/config.yaml"
a
ruta_config = "./incorporado/config.yaml "
Dado que los archivos están en una carpeta integrada y no en un sobre personalizado, asegúrese de supervisar su propia estructura de archivos. Puede cargarlos en diferentes carpetas, pero en tales casos, actualice el código del cuaderno para encontrar el archivo config.yaml correctamente.

5. Haga clic en Ejecutar celda:

Esta guía le guiará a través de la configuración e implementación de una función de Azure para integrar datos de colaboración delta con Procore Analytics. La función de Azure permite un procesamiento de datos eficiente y flujos de trabajo compartidos con perfiles de colaboración delta.
ir a
para obtener instrucciones sobre cómo instalar Azure Functions Herramientas esenciales.Este documento proporciona instrucciones paso a paso para configurar una canalización de datos en Microsoft Fabric para transferir datos del recurso compartido delta a un almacén de SQL. Esta configuración permite una integración de datos perfecta entre los orígenes de Delta Lake y los destinos de SQL.
Problemas comunes y soluciones:
El uso de Data Factory en Microsoft Fabric con uso compartido delta permite una integración y un procesamiento perfectos de las tablas delta compartidas como parte de sus flujos de trabajo de análisis con Procore Analytics 2.0. Delta Sharing es un protocolo abierto para compartir datos de forma segura, lo que permite la colaboración entre organizaciones sin duplicar datos.
Esta guía le indica los pasos para configurar y utilizar Data Factory in Fabric con uso compartido delta, utilizando blocs de notas para procesar y exportar datos a un lago.



3. Copie el código de ds_to_lakehouse.py y péguelo en la ventana del cuaderno (Pyspark Python):

El siguiente paso es cargar su propio config.yaml y config.share en la carpeta Resources de Lakehouse. Puede crear su propio directorio o utilizar un directorio integrado (ya creado para recursos por Lakehouse):


El siguiente ejemplo muestra un directorio integrado estándar para un archivo config.yaml.
Nota: asegúrese de cargar ambos archivos en el mismo nivel y para la propiedad config_path:

4. Verifique el código del bloc de notas, líneas 170-175.
El siguiente ejemplo muestra los cambios de línea necesarios:
ruta_config = "./env/config.yaml"
a
ruta_config = "./incorporado/config.yaml "
Dado que los archivos están en una carpeta integrada y no en un sobre personalizado, asegúrese de supervisar su propia estructura de archivos. Puede cargarlos en diferentes carpetas, pero en tales casos, actualice el código del cuaderno para encontrar el archivo config.yaml correctamente.

5. Haga clic en Ejecutar celda:





Póngase en contacto con el soporte técnico de Procore si tiene alguna pregunta o necesita ayuda.
La herramienta Procore Analytics Cloud Connect Access es una interfaz de línea de comandos (CLI) que ayuda a configurar y gestionar las transferencias de datos de Procore a Snowflake.
Consta de dos componentes principales:
Ejecute la utilidad de configuración utilizando python user_exp.py.
Después de la configuración, tiene dos opciones para ejecutar la sincronización de datos:
Para Linux y macOS:
```golpe
EDITOR=nano crontab -e
```
2 * * * *
/Users/su_usuario/copo de nieve/venv/bin/python
/Users/su_usuario/copo de nieve/sql_server_python/connection_config.py
2>&1 | while lee la línea; do echo "$(fecha) - $línea"; hecho>>
/Users/su_usuario/snowflake/sql_server_python/procore_scheduling.log # procore-data-import
Para Windows:
```
PowerShell
schtasks /query /tn "ProcoreDeltaShareScheduling" /fo LIST /v
```
{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "https://nvirginia. nube.databricks.c...astores/xxxxxx "
}
Deberá proporcionar los siguientes detalles de Snowflake:
La herramienta ofrece la posibilidad de planificar la sincronización automática de datos.
desarmar
├── requisitos.txt N.º de dependencias
├── experiencia_usuario.py # Utilidad de configuración
├── ds_to_snowflake.py # Script de sincronización de datos
├── config.yaml # Configuración generada
├── compartir configuración # Archivo de configuración de recurso compartido delta
├── procore_scheduling.log N.º registro de ejecuciones de planificación
Nota: Recuerde siempre hacer una copia de seguridad de su configuración antes de realizar cambios y probar nuevas configuraciones primero en un entorno que no sea de producción.
La herramienta Procore Analytics Cloud Connect Access es una interfaz de línea de comandos (CLI) que ayuda a configurar y gestionar las transferencias de datos de Procore a Amazon S3 con Procore Analytics 2.0.
Consta de dos componentes principales:
Ejecute la utilidad de configuración utilizando python user_exp.py.
Esto le ayudará a configurar lo siguiente:
{
"shareCredentialsVersion": 1,
"bearerToken": "xxxxxxxxxxxxx",
"endpoint": "xxxxxx"
}
Deberá proporcionar los siguientes detalles de S3:
La herramienta ofrece la posibilidad de planificar la sincronización automática de datos.
También puede verificar la planificación ejecutando el comando en el terminal
Para Linux y MacO:
Para editar/eliminar: edite el cron de planificación usando:
```golpe
EDITOR=nano crontab -e
```
Para Windows:
desarmar
├── requisitos.txt N.º de dependencias
├── experiencia_usuario.py # Utilidad de configuración
├── delta_share_to_s3.py # Script de sincronización de datos
├── config.yaml # Configuración generada
├── compartir configuración # Archivo de configuración de recurso compartido delta
├── procore_scheduling.log N.º registro de ejecuciones de planificación
Problemas comunes y soluciones:
Notas:
Delta Sharing es un protocolo abierto para el intercambio seguro de datos en tiempo real, que permite a las organizaciones compartir datos entre diferentes plataformas informáticas. Esta guía lo guiará a través del proceso de conexión y acceso a los datos a través de Delta Sharing.
El conector de Python de uso compartido delta es una biblioteca de Python que implementa el protocolo de uso compartido delta para leer tablas de un servidor de uso compartido delta. Puede cargar tablas compartidas como un DataFrame de pandas o como un DataFrame de Apache Spark si se ejecuta en PySpark con Apache Spark Connector instalado.
desarmar
pip3 instalar delta-sharing
El conector accede a las tablas compartidas en función de los archivos de perfil, que son archivos JSON que contienen las credenciales de un usuario para acceder a un servidor de uso compartido delta. Tenemos varias formas de empezar:
Después de guardar el archivo de perfil, puede usarlo en el conector para acceder a tablas compartidas.
importar delta_sharing
Apache Spark Connector implementa el protocolo de uso compartido delta para leer tablas compartidas desde un servidor de uso compartido delta. Se puede utilizar en SQL, Python, Java, Scala y R.
El conector carga las credenciales de usuario desde los archivos de perfil.
Puede configurar Apache Spark para cargar el conector de uso compartido delta en los dos siguientes
maneras:
Si usa Databricks Runtime, puede omitir esta sección y seguir la documentación de las bibliotecas de Databricks para instalar el conector en los clústeres.
Para utilizar el conector de uso compartido delta de forma interactiva dentro del shell de Scala/Python de Spark, puede iniciar los shells de la siguiente manera.
Estructura de PySpark
desarmar
pyspark --packages io.delta:delta-sharing-spark_2.12:3.1.0
Concha de escala
desarmar
bin/spark-shell --paquetes
io.delta:delta-sharing-spark_2.12:3.1.0
Si desea compilar un proyecto Java/Scala utilizando el conector de uso compartido delta del repositorio central de Maven, puede utilizar las siguientes coordenadas de Maven.
El conector de uso compartido delta se incluye en el proyecto de Maven agregándolo como una dependencia en el archivo POM. El conector de uso compartido delta está compilado con Scala 2.12.
<dependency>
<groupId>io.delta</groupId>
<artifactId>delta-sharing-spark_2.12</artifactId>
<version>3.1.0</version>
</dependency>