Skip to main content

Flujo de datos

Los flujos de datos son conductos de datos resilientes y escalables que puede usar para ingerir, procesar y transferir datos de un origen o más a un destino o más. Cada flujo de datos consta de componentes que transforman los datos en el conducto y enriquecen el procesamiento de datos con estrategias de evento, estrategias y análisis de texto. Los componentes se ejecutan simultáneamente para manejar los datos desde el origen y hasta el destino.

Puede crear flujos de datos que procesen los datos de diferentes maneras:

Los flujos de datos en lote abarcan un conjunto finito de datos y, finalmente, completan el procesamiento. Los flujos de datos en lote se usan principalmente para procesar grandes volúmenes de datos.

Los flujos de datos en tiempo real abarcan un conjunto infinito de datos. Los flujos de datos en tiempo real están siempre activos y continúan el proceso de solicitudes y datos de flujos entrantes.

Los flujos de datos de caso único se ejecutan cuando se solicitan, con el origen de flujo de datos configurado como abstracto. Los flujos de datos de caso único se usan mayormente para procesar los datos entrantes.

Nota: La ejecución de los flujos de datos que se inician a través de la landing page Data Flows (Flujos de datos) se realiza en el contexto de grupo de acceso. Estos flujos de datos siempre usan la instancia de registro de la regla de flujo de datos y las reglas referenciadas. Si desea realizar una ejecución de prueba, puede usar una instancia de extracción de la regla de flujo de datos.

Cree un flujo de datos para procesar y transferir datos entre orígenes de datos. Para personalizar su flujo de datos, agregue figuras de flujo de datos y haga referencia a otras reglas de negocio para llevar a cabo operaciones de datos más complejas. Por ejemplo, un flujo de datos simple puede transferir datos de un conjunto de datos único, aplicar un filtro y guardar los resultados en otro conjunto de datos. Flujos de datos más complejos se pueden obtener de otros flujos de datos. También es posible aplicar estrategias para el procesamiento de datos, abrir un caso o disparar una actividad como resultado del flujo de datos.

Una gran cantidad de ejecuciones de flujos de datos activas al mismo tiempo puede agotar los recursos del sistema. Para garantizar un procesamiento eficiente del flujo de datos, puede configurar opciones del sistema dinámicas para limitar la cantidad de ejecuciones de flujos de datos activas y simultáneas para un tipo de nodo.

Procesamiento de eventos en tiempo real con Kafka

Pega Customer Service™ y Pega Customer Decision Hub™ incluyen el servicio Event Stream predeterminado para procesar eventos en tiempo real. Si es necesario, también puede aprovechar la escalabilidad y el alto rendimiento que ofrece Apache Kafka al configurar Pega Marketing o Pega Customer Decision Hub para alternar con un clúster Kafka externo.

Los eventos proporcionan un mecanismo para responder a oportunidades de marketing en tiempo real. Un evento se inicia a partir de sistemas internos o externos, y puede disparar la ejecución de una campaña. Por ejemplo, cuando un cliente que tiene una cuenta corriente en UPlus accede al cajero automático del banco, el servicio Event Stream reconoce la acción y dispara la campaña a la que está asignado el evento. En consecuencia, la pantalla del cajero automático muestra al cliente una oferta de una nueva tarjeta de crédito que el banco UPlus quiere publicitar. De manera predeterminada, el servicio Event Stream se ocupa del procesamiento del evento.

El procesador de la cola automáticamente genera un conjunto de datos de flujo y un correspondiente flujo de datos. El conjunto de datos de flujo intercambia mensajes con el servicio Stream. El flujo de datos gestiona la suscripción de los mensajes para garantizar su procesamiento.

Puede ver los flujos de datos que se corresponden con las reglas de procesadores de colas en su sistema, en la landing page de QueueProcessors en Admin Studio. Desde esta landing page, puede abrir el DataFlow asociado con cada regla de procesador de cola con el cual puede supervisar y diagnosticar los procesos en segundo plano. Además, en esta landing page, puede rastrear, habilitar y deshabilitar las reglas de procesador de cola, o bien puede realizar estas mismas funciones usando API REST.

Las reglas de procesador de cola dependen del servicio DSM. Se configura automáticamente un nodo de Stream, listo para usar en Pega Cloud Services y en entornos de nube gestionados por el cliente. Para los entornos en las instalaciones, asegúrese de definir, con la configuración -DNodeType=Stream , al menos un nodo en un clúster para que sea un nodo de Stream.


This Topic is available in the following Module:

If you are having problems with your training, please review the Pega Academy Support FAQs.

¿Le ha resultado útil este contenido?

El 50% ha encontrado útil este contenido.

¿Quiere ayudarnos a mejorar este contenido?

We'd prefer it if you saw us at our best.

Pega Academy has detected you are using a browser which may prevent you from experiencing the site as intended. To improve your experience, please update your browser.

Close Deprecation Notice