Hunter KPI (Base Tables)

miércoles, 14 de julio de 2010 3:00:00 Categories: Access Base de Datos Hunter KPI
Valorar Este Contenido 1 Votos.

¿Cuando hablamos o KPI en Análisis de rendimiento, lo que inmediatamente viene a la mente? Si bien la respuesta a esta pregunta es particular de cada persona, podemos pensar de un general en un informe: una tabla, un gráfico, mapa o incluso una combinación de todos.

 

 

No importa cuál sea el formato de este informe es correcto afirmar que sirve para contar una comparación de los indicadores. Esta comparación puede ser con respecto a un valor fijo, o en una diferente magnitud, entre otros. Estos son los algoritmos utilizados.

Pero hoy vemos un paso anterior, pero muy importante, y es esencial para generar cualquier informe - la utilización de tablas de base para el almacenamiento de datos, y las posteriores consultas y análisis.

Nota: Todas las telecomHall artículos están escritos originalmente en Portugués. A continuación se hacen traducciones en Inglés y Español. Como nuestro tiempo es escaso, sólo se producen varios errores de ortografía (que utilizar el traductor automático, y sólo entonces hacer una revisión final). Pedimos disculpas, y contamos con su comprensión de nuestro esfuerzo. Si usted quiere contribuir traduciendo / corregir una de estas lenguas, o incluso uno nuevo, por favor comuníquese con nosotros: contacto.

 

Objetivo

De las tablas de datos de los contadores (Excel, Texto, etc.) importar los datos en el performance acumulado.

En otras palabras, comenzar a crear la base de KPI módulo, desde donde las tablas se sabe muy bien una serie de algoritmos que ayudan en el análisis.

Nota: no confunda con lo que se presentó en el módulo de KPI Hunter (Intro). De vez en cuando, nos enteramos de cómo importar un archivo de Excel con los datos de los contadores a una tabla de base de datos. Hoy vamos un poco más allá, y cuando el contador de datos prima es importada, hemos acumulado los datos en un repositorio (cuadros de base). De todas formas no te preocupes. Siga el tutorial y se verá claramente en el final.

Nota: Casi todos los tutoriales tiene archivos relacionados, que son enviadas a los Suscriptores.

  • Si usted es un Suscriptor, por favor consulte el archivo recibido para este tutorial en su correo electrónico y utilizar el apoyo para cualquier duda o problema que encuentre.
    • Blog_018_Hunter_KPI_(Base_Tables).zip.
  • Si usted es un Miembro y sólo tiene acceso al tutorial escrito, usted todavía puede aprender conceptos muy importantes que seguramente le ayudará en sus desarrollos propios. Leer y comprobar en cada nuevo tutorial.
    • Si usted desea contribuir de alguna manera, la forma más sencilla es llegar a ser un suscriptor.

Nuestro público es desde estudiantes a profesionales con experiencia. Por lo tanto pedimos un poco de comprensión y tolerancia, si algunos algunos de los conceptos presentados hoy son demasiado básicos para usted. Además, todos los tutoriales, códigos y programas se encuentran en un continuo proceso de edición. Esto significa que si encuentra algún error, por ejemplo, la gramática o la ortografía, intentaremos solucionarlo lo antes posible. También nos gustaría recibir sus comentarios, que nos informan de errores o pasajes que se prestaban a confusión y que merecen ser reescrito.

 

Estructura de archivos

Una vez más, no hay necesidad de crear otro directorio. Vamos a trabajar con el módulo de KPI Hunter. No es necesario crear un directorio nuevo hoy, porque estamos trabajando con un módulo existente - KPI (1).

 

Esta estructura y sus archivos se han creado en tutorial anterior.

 

Tablas Base

Entender cómo el módulo de tablas base KPI las tablas donde los datos acumulados sobre el performance. La acumulación de datos se realiza mediante procedimientos automatizados que permiten que los datos se acumulan en las tablas estandarizadas.

Para adelantarse un poco de nuestra parte, y no pierda tiempo ahora de otras cuestiones como la creación de tablas, etc, tenga en cuenta que hemos creado tres tablas basadas.

Por otra parte, hoy todavía no utilizará la práctica recomendada es mantener las tablas de bases de datos separadas. Haremos todo lo que en esa base de datos (archivos de importación, crear tablas, consultas, etc ...), ya que hoy pasan el proceso de aprendizaje, y menos opciones para confundir nuestras mentes mejor.

 

Boots y Configuración

Hay varias formas para lograr los procesos automáticos. El más simple, pero menos que se indique, es escribir todos los comandos y ajustes directamente en el código. La práctica habitual es menos utilizada porque cada vez que tiene que cambiar todos los datos, tales como el directorio en el que los datos de entrada, es necesario modificar el código.

Otros formas son a través de la carga de datos iniciales de un archivo o una tabla. En nuestros módulos que hemos elegido esta segunda vía: arrastrado casi todas las variables para las tablas auxiliares. Así, por ejemplo para cambiar el directorio de salida, basta con modificar el valor de la tabla auxiliar.

 

Otra vantangem este procedimiento es que podemos tener múltiples funciones y procedimientos en nuestro código. Y valores escritos directamente en nuestro código - se llama duro de codificación - pueden tener problemas para cambiar todas partes. (Por supuesto, podemos utilizar la función Buscar -> Reemplazar, pero ya se ejecuta en nuestra búsqueda de mejores soluciones, e incluso en caso afirmativo, si las instancias son muchos, pasamos tiempo con aquí).

Pero no para complicar las cosas, también no lo utilizan hoy en día - de nuevo hincapié en que nos preocupa que a entender el proceso. Entonces es fácil de aprender las mejoras.

 

Homogeneización

Ya hablamos de esto antes, pero vale la pena recordar la importancia de la normalización de los datos, es decir, los indicadores que es común, independientemente de lo que la tecnología o el proveedor de equipo. La forma más fácil de entender esto es con el más de todos los indicadores - tráfico. Es decir, nuestra tabla contiene un indicador para el tráfico, ya sea GSM, UMTS o de otra.

 

 

Granularidad de los datos, ¿para qué?

También un factor importante que vamos a ver en las tablas es acumulativo, es interesante para acumular datos sobre todas las granulaciones. Por ejemplo, tendremos un cuadro acumulativo con indicadores clave a nivel sectorial (CELL), pero también tendremos una mesa con estos mismos indicadores agrupados por BSC / RNC, y también por la Red (NET). La siguiente figura muestra las tres tablas, y los tres granularidades muestra (CELL, BSC y NET).

 

Pero ¿por qué es eso? Por supuesto que podemos hacer consultas en la mesa principal, con los datos de cada sector. Sin embargo, como la cantidad de datos acumulados es cada vez mayor, también será cada vez más tiempo para ejecutar una consulta. El acceso tiene el poder para hacer frente a miles y miles de datos al mismo tiempo, pero si tenemos un informe que utiliza los datos en un clúster más, ¿por qué no dejar que

 

Frecuencia

El momento también es un tema que consideramos. Sin entrar en ampliar aún más los conceptos teóricos para hoy, vamos a trabajar con una periodicidad de una hora, es decir, para cada grupo de contadores, el valor será representar a la cuenta de exactamente una hora. Pero esto no impide que los datos se almacenen en periodiciades demasiado, por ejemplo, tenemos una tabla con los datos acumulados en intervalos de 1 día. Esto se verá más claro con el tiempo, ahora sólo sé que nuestros datos se reunieron en la Oficina de Servicios a la norma intervalos de una hora.

 

Entrada de Datos

Cómo estás acostumbrado a, antes de empezar vamos a definir algunos datos ficticios para ser utilizado en nuestro ejemplo hoy en día. Antes, sin embargo, vale la pena hacer una observación sobre los datos de entrada.

Sería genial si los datos de entrada que utilizamos en nuestro trabajo todos vienen en un formato estándar, ya sea texto o Excel, y estos datos estaban en el formato listo para importarlos. Pero esto no es lo que sucede.

Datos suelen tener un formato estándar, tales como insertar un encabezado con información para nuestro caso no es deseable. Por ejemplo, un formato de salida como se muestra abajo, con un cabezazo (1). Tenemos que hacer un tratamiento antes - borrar las líneas no deseadas - antes de importar.

 

Pero nuestro trabajo puede ser aún mayor. El origen de datos pueden ser bastante complejos, dependiendo de donde estamos obteniendo nuestros datos. No es raro encontrar los datos de entrada en el formato que se muestra a continuación, donde se presentan de forma secuencial, es decir, que necesitan un tratamiento más grande ahora, para ponerlo en el formato deseado para la importación.

 

Herramienta Hunter está listo para la importación de datos de entrada por encima de los formatos, y en cualquier formato nuevo que pueda surgir. Para ello, utilizamos un módulo que veremos en breve: Hunter Parser.

Un analizador es una aplicación que toma los datos en un formato prima en particular, y transforma estos datos en una forma deseada. Usando el analizador de los datos de entrada por encima, de dónde vienen tales OSS comerciales, que los datos de entrada en formato de tabla.

 

 

No vamos a ocuparnos ahora con el analizador, y suponemos que los datos exportados desde nuestro OSS ya están en formato de tabla, y ahí nomás las importaciones. Nota: En estos momentos, no te preocupes, pronto estaremos demostrando cómo realizar este mismo procedimiento utilizando el formato de archivo específico.

Continuando así, tenemos un número de archivos exportado, con los contadores se muestra en los contadores siguientes:

 

La periodicidad de nuestros datos es cada hora, así que si el archivo es de fecha 7/11/2010 0:00:00 igual a decir que los datos se recogen de 00-01 horas del día 11/07/2010. Es decir, el archivo de datos tiene una hora.

Para demostrar que el proceso automatizado, supongamos que haya entrado en OSS en algunas ocasiones y ha descargado los datos. Supongamos que tenemos tres archivos a continuación:

 

  • counters_100711_00-08h.xls: 0-8 con los datos de la mañana;
  • counters_100711_09-12h.xls: Los datos de 9 a 12 horas de la mañana,
  • counters_100711_12-00h.xls: con datos de 12 pm hasta el final del día.

Tenga en cuenta que si sumamos los 3 archivos, entonces tendremos una tabla con datos de 24 horas. No mano, sabemos cómo. Pero nuestro objetivo es aprender cómo hacer que este proceso totalmente automatizado. Así que vamos a continuar.

Pero ahora surge un problema: ¿qué pasaría si los archivos tienen datos duplicados, nuestros datos se replicarán? En otras palabras, supongamos que la distracción, los dos primeros archivos tienen datos de 8 a 9 horas de la mañana.

O mejor, ¿si desea anexar los archivos de datos en una sola, en la misma mano que usted? Es probable que abriría la primera, los datos colaria en la segunda y tercera, y guardarlo con un nombre nuevo final, ¿no?

Bueno, sabemos que los datos duplicados que llegar hasta allí, y probablemente su informe la suma del tráfico del día sería

Hay formas de validación de borrar los datos repetidos en Excel, por ejemplo, podemos aplicar una tabla dinámica y conseguir todos los campos. En nuestro procedimiento, la importación de los datos en una base de datos, vamos a ver cómo este tipo de validación en un casi transparente, es decir, no hay que preocuparse por ello. Usaremos

 

Claves Primaria

Cuando hablamos acerca de las claves principales, por supuesto, significa que se confunden. Este término es ampliamente utilizado por dba - o los administradores de base de datos. Ok, empeoró aún más.

Bueno, tan simple, las claves principales se puede entender en nuestro caso como el conjunto de campos que se define como un registro único. Si nos fijamos el campo de la fecha de nuestra mesa como la clave principal, no tendríamos mucho éxito. De inmediato, el segundo registro tendría la misma fecha, y el Estado de la clave primaria - no puede ser duplicado - sería error.

Lo mismo ocurre si optamos por la clave principal BSC. Y si elegimos cellname como clave principal - a un tiempo tan bueno. Pero cuando los datos importássemos de otro tiempo, el cellname se repetiría, y violan la regla de la clave principal, dando error.

 

La solución entonces es crear una clave principal para tla una tabla con varios registros por varios días y horas que no tienen registros duplicados. Y lo hacemos mediante la creación de una clave principal compuesta de todos los campos que definen un registro único. Claro, era complicado, pero no podemos explicar mucho acerca de eso hoy. Simplemente aceptar que hay que crear una clave principal con los campos de fecha y hora, y el BSC cellname juntos, en el caso de tbl_kpi_cell mesa.

Nota: recuerde que en nuestra metodología de aprendizaje, a veces muestran algo muy rápidamente, porque sabemos que el resultado final será la comprensión de cuándo utilizar.

Este caso particular, sólo para demostrar, haga lo siguiente. Crear una tabla con un campo llamado "prueba". No importa qué tipo de campo puede ser un texto en sí.

 

Establezca este campo como clave principal. Para ello, vaya a Menú diseño (1) de la tabla que ha creado. A continuación, seleccione el campo que fue creado por usted (2) y haga clic en Clave principal (3).

 

Nota: Observe que Access crea automáticamente un campo en esta tabla, el campo ID de Autonumérico tipo, y tiene como clave principal ignorar - este campo y continuar. Queremos que la clave como el campo que hemos creado.

Ahora abra esta mesa, e introducir un valor. En el siguiente campo, introduzca el mismo valor. Observar lo que sucede.

 

Access no permite el campo para ser duplicado! Para continuar, presione la tecla ESC.

Bueno, eso es lo que utilizamos como la validación de datos, por lo que nunca hemos duplicado los datos en nuestras tablas.

Para establecer las claves principales para garantizar que nuestros datos no se duplican, haga clic en los campos con la tecla CTRL y haga clic finalmente la clave principal.

 

Ya hemos hablado suficiente por hoy, que ahora sí un poco de práctica, o nuestro mundo real.

 

¿Cómo funciona este módulo?

El objetivo de hoy, que cuando hablamos de aprendizaje es el proceso de cómo las funciones del módulo.

En pocas palabras, podemos representar el proceso a través de los pasos a continuación.

  1. descargar los archivos de salida con los contadores de OSS crudos;
  2. Guarde estos archivos en la entrada (datos) KPI módulo de Hunter, para que puedan encontrar e importados;
    • Por supuesto, esto se puede cambiar en el futuro, por ejemplo en el que puede elegir el módulo a importar uno o más archivos de una carpeta determinada. Hoy, vemos el proceso en términos generales, sin muchas alternativas, no sólo para complicar el
  3. Importe el archivo en una contadores basados en tablas;
    • Aquí tenemos algunos detalles más que saltó hoy en día como el analizador, o procesamiento de datos que quizás no estaban en el formato deseado. En el futuro veremos también.
  4. De la tabla de base de datos de los contadores, los datos para sumar (acumular) en las escalas de performance;
    • En este punto, usamos las claves principales, lo que nos garantizará que no repetir o duplicar los datos en nuestra tabla, que causuaria un error en nuestros informes.
  5. Cambie el nombre del archivo que desea importar. "importados", y continuar con los datos del archivo de la próxima entrada de directorio.
    • Continuar este proceso hasta que te quedas sin los archivos a importar.

Pronto. Los datos ya están disponibles en tres tablas:

  • CELL: con los datos de cada sector (sin grupos).

 

  • BSC: datos agrupados por BSC.

 

  • NET: con datos agrupados en la red.

 

Para ejecutar el proceso, hemos creado un interfaz - nosotros también lo haremos en el futuro. Hoy en día hay que estar cansados de escuchar, pero queremos que usted aprenda el proceso. Sólo así será muy bueno. Así que para simplificar, para ejecutar el proceso, sólo tiene que descargar los archivos de la OSS y poner en el formato como se muestra arriba (counters_parsed) ejecutar la macro KPI_Main_RUN.

Nota: Aquí está una sugerencia interesante - algunos archivos duplicados, o entrar en cualquiera y los datos duplicados. Vea lo que el resultado final - los datos acumulados en los cuadros - no cambia, siempre es correcta, sin duplicar datos

 

Código

Básicamente, el proceso automatizado todo se logra a través del código VBA. Vamos a destacar los puntos nuevos.

La clave es utilizar doFileSystemObject. Esta opción es para trabajar con archivos. Vamos a hablar rápidamente, vamos a utilizar en otros detalles.

La sintaxis a utilizar es:

 

Una vez cargado el nuestro directorio, podemos hacer un bucle en sus propiedades. Nosotros usamos los archivos de propiedades del objeto de carpeta que creamos en nuestra entrada de directorio y listo: podemos realizar las acciones necesarias (proceso de cada archivo, la importación de ...)

 

Uno de los procesos interesante lo que hacemos es la siguiente: después de que el archivo se trata o importadas, que no necesita y no debe ser importados y procesados de nuevo. ¿Y cómo?

Usamos el nombre del comando para cambiar el nombre archivos a una extensión diferente de lo que buscamos en el bucle (si es diferente de '.xls'). Después de cada archivo no se procesa o importadas, el archivo se cambia el nombre ".imported", y así el ciclo en busca de archivos de tipo '.xls' encontrar este archivo (y sí el archivo .xls.imported!).

 

Tenemos más noticias en el código de hoy. Como siempre, le recomendamos que lea, porque es una revisión completa.

 

Referencias

Estas son las referencias que usted debe tener en su proyecto, para trabajar como se muestra en la actualidad.

 

Si falta alguno, aparecerá como Ausente, y usted debe buscar una alternativa. En caso de problemas, por favor contáctenos. Por ejemplo, en lugar de 12.0 puede ser que usted tiene 11.0, si está utilizando Office 2003 en lugar de 2007.

 

 

Conclusión

Aprendido hoy la importación simplificada automatizado de uno o más archivos con contadores de performance, y su almacenamiento en las tablas de performance.

Este proceso participaron varios otros conceptos como la granularidad (BSC, CELL, NET, etc ...), intervalos (horas, días, etc ...), pretratamiento de datos (analizador), tablas de performance con las claves principales, métricas de performance, etc. Además de algunos nuevos conceptos, como VBA FileSystemObject - se utiliza para trabajar con directorios y archivos, y el comando Name - se utiliza para cambiar el nombre do archivo.

Pero no podía ser todo lo que se vio rápidamente, debido al límite de tiempo y temabém porque no podemos aprenderlo todo de una vez. Pero no te preocupes, vamos a hablar de estos asuntos, a medida que evolucionamos, y todos a ponerse al día. De todos modos, tenga en cuenta que estamos cada vez más aprender cosas nuevas, y muy pronto vamos a utilizar las herramientas de una forma completamente profesional.

La búsqueda continúa para el desarrollo de aplicaciones de forma más simple, y nos permite mejorar nuestro trabajo, de forma rápida y eficiente. Leer todos los tutoriales, y practicar, no hay conocimiento aquirir más tiempo - este es su mayor diferencial.

Esperamos que tengas gostado. Tire alguna duda en los comentarios en el blog o através de nuestro soporte vía chat o e-mail.

A nuestra próxima reunión, y recuerde: Su éxito es nuestro éxito!