#Bacula Parte1 (compilando – instalando)

baculaVamos a realizar una serie de artículos de BACULA, tengo pensado dividirlo en tres post ya que Bacula es un sistema Enterprise Oriented y es bastante extenso cubrirlo todo, en primera instancia vamos compilar desde el código fuente, (yo se que esta el paquete precompilado en los repositorios de Debian pero es mejor tener la ultima versión) todo el sistema, seguidamente compilaremos el cliente, y por ultimo un sistema Web el cual no he escogido aun por que hay varios para monitoriar y administrar los procesos de respaldo.

Leer más

Conectar Flume con #Hadoop

flume-logoBuenas, en este articulo seré breve, lo que haremos sera conectar Apache Flume con el HDFS de Hadoop, esto para poder obtener el Stream de Twitter de una cuenta particular, para ello debemos realizar varias tareas, estamos listos? Lo primero que debes hacer es descargar los paquetes que necesitaremos, son dos el primero Apache flume bajatelo de aqui, luego necesitaremos el código fuente o el .JAR que ofrece el proyecto Cloudera para esta tarea, les comento que a la primera no me funciono en Ubuntu, se debe recompilar el .JAR para que esto camine, asumo en este articulo que la implementación de HADOOP en la plataforma es efectiva y correcta.

Leer más

No más «tail -f » al revisar #logs

bash_logoEs cierto que en muchas oportunidades e visto administradores de sistemas hacer uso del comando «tailf  -f» para visualizar archivos de registro que están siendo escritos al momento, por el aplicativo en cuestión, el caso es que si revisan la documentación del comando «less», te darás cuenta que hay una forma mas elegante de hacer esto:

Leer más

Instalar #HPVERTICA en #Debian

HP_Vertica_Logo_0Para el análisis de grandes volúmenes de datos es una buena practica usar una DB COLUMNAR y ahorita lo cierto es que Vertica esta haciendo BUZZ,  vamos a probarla. Lo primero es instalar un Debian versión 6 de 64 BITS y una vez echo eso, te debes registrar en Hp-Vertica, descargar el paquete del DB Server y moverlo al Debian destinado para la instalación.

Leer más

Quick #Database Properties

En #Postgresql. Despliega, el esquema de la tabla, tamaño total en formato humano, nombre de la tabla, numero de registros por tabla. SELECT nspname || ‘.’ || relname AS «relation», pg_size_pretty(pg_total_relation_size(C.oid)) AS «total_size», relname, reltuples FROM pg_class C LEFT JOIN pg_namespace N ON (N.oid = C.relnamespace) WHERE nspname NOT IN (‘pg_catalog’, ‘information_schema’) AND C.relkind <> … Leer más

Encuentra la tabla mas grande #PostgreSQL

Para encontrar la tabla mas grande de tu base de datos en PostgreSQL, corre este Query: SELECT nspname || ‘.’ || relname AS «relation», pg_size_pretty(pg_total_relation_size(C.oid)) AS «total_size» FROM pg_class C LEFT JOIN pg_namespace N ON (N.oid = C.relnamespace) WHERE nspname NOT IN (‘pg_catalog’, ‘information_schema’) AND C.relkind <> ‘i’ AND nspname !~ ‘^pg_toast’ ORDER BY pg_total_relation_size(C.oid) DESC … Leer más

#Pentaho – Migracion de Kettle_properties

pentaho-logoCuando se trabaja con #PDI (Pentaho Data Integration) se puede realizar migraciones de configuraciones de PDI moviendo el archivo kettle_properties de un SERVER a otro. Lo importante es declarar la variable de ambiente de forma correcta para que el PDI pueda tomar el archivo con los cambios que se realizaron previamente en la antigua plataforma.

Leer más

#Tableau / pequeña y mediana empresa

tableau-logo-USE-THIS-ONETableau es un software de análisis que puede ser usado siempre que se quiera extraer información sobre un determinado set de datos; es decir toma la data que se genera en el negocio y la presenta de forma gráfica para que las personas que supervisan la operación puedan tomar decisiones.

Leer más

#Hadoop quick Commands

Listar archivos hadoop fs -ls /user/hadoop/dir1/filename.txt hadoop fs -ls / Subir archivos hadoop fs -put txt1 txt2 /user/hadoop/dir2/ Descarga archivos del HDFS hadoop fs -get /user/hadoop/dir3/Samplefile.txt /home/ Borrar archivos hadoop fs -rm -r -f /user/the/path/to/your/dir hadoop dfs -rmr hdfs://host:port/Navi/MyDir\,\ Name Facebook0Twitter0Reddit0Linkedin0Stumbleupon0X

Jhipster the Webpack oldspace FIX

The Error

flux@crispy:~/.npm/_logs$ cat 2017-10-15T15_46_33_885Z-debug.log
0 info it worked if it ends with ok
1 verbose cli [ ‘/usr/local/bin/node’,
1 verbose cli ‘/usr/local/bin/npm’,
1 verbose cli ‘run’,
1 verbose cli ‘webpack’,
1 verbose cli ‘–‘,
1 verbose cli ‘–config’,
1 verbose cli ‘webpack/webpack.dev.js’,
1 verbose cli ‘–progress’,
1 verbose cli ‘–profile’ ]
2 info using npm@5.4.2
3 info using node@v8.7.0
4 verbose run-script [ ‘prewebpack’, ‘webpack’, ‘postwebpack’ ]

Leer más

Los GUI apoyados por #Debian

Aca un actual screenshot del instalador de Debian 9.1 Network install conectado a la red le da preferencia a los siguientes entornos de escritorios gráficos Actualmente estoy probando Mate en una pc con 2G de Ram y se mueve bien. Big UPS por este release. Facebook0Twitter0Reddit0Linkedin0Stumbleupon0X