Archive for the ‘java’ Category

Handling multiple verticle deployment
April 4, 2014

Every Vert.x module needs a single point of start.
Once your application has many verticles interacting you’ll need one verticle to start them all, one verticle to find them, one verticle to bring them all and in the darkness bind them (I’m sorry).
For this particular task I prefer to use javascript. I tend to think of this verticle as the start script of my application, so I like it to be easy to write and I found the javascript syntax to be a good fit on this.

My deployment verticle

I usually name it app-deployer.js and I place it in src/main/javascript (I’ll explain below how to add it to Maven).

var container = require("vertx/container")
var console = require("vertx/console")
var config = container.config;

var skipDeploy;
if (config.skipDeploy) {
  skipDeploy = config.skipDeploy;
} else {
  skipDeploy = [];

const verticles = [
    name : "con.locademiaz.vertx.FirstVerticle",
    instances : 1,
    config : {
      foo_param : config.bar_param

deployVerticles(verticles, 0);

function deployVerticles(verticles, verticleIndexToDeploy) {
  if (verticleIndexToDeploy < verticles.length) {
    const verticle = verticles[verticleIndexToDeploy];
    const verticleName =;
    if (skipDeploy.indexOf(verticleName) == -1 ) {
        function(err, deployID) {
          if (!err) {
            console.log("[Ok] " + verticleName);
            deployVerticles(verticles, verticleIndexToDeploy + 1);
          } else {
            console.log("[Fail] " + verticleName + " -> " + err.getMessage());
    } else {
      console.log("[Skip] " + verticleName);
      deployVerticles(verticles, verticleIndexToDeploy + 1);

In this file you can do all kinds of tricks.
One of my preferred ones is to add a list of blacklisted verticles. This is useful for testing because you can deploy this file, getting your all system deployed, and mock some behavior inside your test.
Also, as I like to keep my external configuration lean, it is here where I manipulate what is passed by the command line and adapt it to each verticle needs.

Extending your Maven configuration

Following what is explained in my previous post this is how you add your verticle deployer to your Maven configuration


Add the resource folder


And now, because I’m a control freak, I don’t like unnecessary files ends up in the jar for my project, so I exclude them from the package as follows:


And that’s it, now you have a nice entry point for your module.


Vert.x Java project – Quick start
April 3, 2014

After having 41 successful-n-productive™ Vert.x systems running, I have distilled a few practices which makes worth to share.

Building environment

I’ve decided to go with Maven for managing dependencies and build cycle. Vert.x has support for Gradle but I dropped this option because I just wanted a simple descriptive language for my project, instead of a full imperative language for this purpose. Nothing against Gradle though.

Vert.x modules

Vert.x recommends to organize your application as modules. Beside all the technical benefits of this practice (classloader isolation, dependency management, etc), I would also like to add that this is a great way to define different areas of development across your team. This, along with a clear document of the services provided and exposed by the modules within its interfaces, will help you to isolate different application concerns as the building blocks for the whole system.

Initial setup

Vert.x has a Maven Archetype for getting started, but IMHO it doesn’t do well with Maven files, and it also generates a single project containing examples for every supported language. BTW, I’ve sent a pull request for this, that has never discussed.
This post will assume you have some knowledge of Maven, its structure and usage.


You can read an in depth explanation of the structure of this file here (this is not yet ready)

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="" xmlns:xsi="" xsi:schemaLocation="">




Vert.x defines a structure for its modules, so, below is a Maven Assembly definition for building it. In concordance with the pom.xml defined above, this must be placed in the src/main/assembly directory.

<?xml version="1.0" encoding="UTF-8"?>
<assembly xmlns=""




Your first verticle

Now we have everything setup to start coding. Create a file inside the src/main/java/com/locademiaz/vertx directory with the following content:

package com.locademiaz.vertx;


public class FirstVerticle extends Verticle {

    public void start() {
        container.logger().info("Your first verticle has been started!");

The final part of a Vert.x module is its descriptor. You can find a comprehensive list of its fields here. Place this file in the src/main/resources directory


Running your module

Development phase

As you can see in the pom.xml file above the vertx-maven-plugin is configured in lines 72-76. Having this configured, allows you to run, directly from your source code, Vert.x with your module just in place. For doing so just run:

$ mvn clean package vertx:runMod

et voilà, you should see the message logged into the system console

Productive phase

As presented here, the .zip generated in the target/mods by the command

$ mvn clean package

is ready to be deployed. You can drop it into your Nexus repository, or into your local maven structure, or you can also use the handy runzip option:

$ vertx runzip target/mods/

In the upcoming entries you can expect more insights about handling deployment, configuration, vert.x packaging, testing, continuous integration and any other shenanigan I encounter in this pleasant trip. Stay tuned.

Turn your Java apps Gnome-Shell friendly
August 30, 2011

The Problem

When you try to add a java application as favorite into the Gnome Shell‘s lateral dock and run it you’ll end up having duplicated icons, one for the launcher and one for the running app. This happens b/c the shell uses an application based system for grouping tasks, so the idea is, if you add an application as a favorite launcher and you start it you’ll end having that launcher icon highlighted. Internally the shell matches the running process with the Exec clause of the .desktop file .
This works well except for applications running inside a VM or being interpreted b/c those will share the same running process. On that situation the shell inspects the WM_CLASS X Window property [1] and matches it with the full name of the desktop file. E.g. if your applications has the WM_CLASS set as “mySwingApp”, for this to successfully matched in the dock with its launcher, that launcher must be called mySwingApp.desktop located according XDG.

Note: for inspecting that value on any window you just need to run xprop WM_CLASS and click into the target window

Why is this happening?

Even if you are creating a swing application from scratch there is no easy way to tweak that X Window property using plain and portable APIs. Taking a look into openjdk sources, this is how them manages it

String mainClassName = null;

StackTraceElement trace[] = (new Throwable()).getStackTrace();
int bottom = trace.length - 1;
if (bottom >= 0) {
    mainClassName = trace[bottom].getClassName();
if (mainClassName == null || mainClassName.equals("")) {
    mainClassName = "AWT";
awtAppClassName = getCorrectXIDString(mainClassName);

As you may note what is used for this value is the name of the class running the Swing main loop.

Da solution

Digging around the web I founded a java agent and a pretty similar explanation on what’s going on.
So what I did was to fork that agent and improve it a little bit. What I did was to move it into a maven structure and remove its packaging as a fat-jar (I’m radically against fat-jars as you can see in my comments here).

The forked project is located in my github here:
and please take a look to the README there

A practical example

My first motivation on doing this was based on IntelliJ IDEA so I’ll paste here my environment.

  • Download the agent-1.0.jar and put it wherever you want (I put it into IntelliJ’s bin/ folder)
  • Edit the file bin/idea.vmoptions adding this line


  • Create the file ~/.local/share/applications/intellij-ultimate.desktop with the following content

    [Desktop Entry]
    Name=IntelliJ IDEA Ultimate Edition
    Comment=The Most Intelligent Java IDE
    Exec=env IDEA_CLASSPATH\=../lib/asm.jar /home/diego/bin/ideaIU-10.5/bin/

Latest notes

If you download the agent-1.0.jar into another location (or with another name) you must adjust the -javaagent: parameter.
Of course, change the path in the Exec entry to point to your own executable.

Hope this helps somebody, it took me a while to figure out the-right-things-to-do™ :)

[1]: Application Based GNOME 3

Drools persistence on top of HashMap
February 7, 2011


This post shows a reference implementation of drools persistence on top of a non transactional HashMap. This should serve as inspiration for more complex scenarios (like the Berkley DB one). This work was also developed under Intalio’s sponsorship.

As the new abstraction is heavily inspired on JPA there are some mechanisms which should be emulated in order to get the same behavior on both implementations.

Involved classes

Starting from the abstraction described in my previous post this is the new hierarchy for persisting drools runtime into a HashMap.

Drools abstract storage persistence diagram

Drools abstract storage persistence diagram

I’ll try to explain the most relevant objects in the diagram relating them to JPA components.

behaves like the EntityManager, it stores all objects which are not yet commited. Finding objects is also resolved through this interface, for support this behavior it has to have access to the KnowledgeSessionStorage.
represents the real persistent storage. This is the extension point for support any other non-JPA implementation. It provides saveOrUpdate and find methods and is the responsible to assign id’s to the entities.
as we cannot rely on JTA to manage our session Drools hooks explicit calls whenever things should be serialized. This component must access the NonTransactionalPersistenceSession to get the entities waiting for being persisted into the KnowledgeSessionStorage.


The same concepts have been applied into JBPM5 codebase and we have there proper extensions for managing process semantics.

You’ll find there:

  • MapBasedProcessPersistenceContext
  • ProcessStorage
  • ManualProcessTransactionManager
  • etc


You must setup the environment you gonna pass to the JPAKnowledgeService (still keeping the name for backward compatibility) setting the TRANSACTION_MANAGER and PERSISTENCE_CONTEXT_MANAGER keys. For this I have just created simple factories but you can build them the way you want.

I suggest using KnowledgeSessionStorageEnvironmentBuilder or ProcessStorageEnvironmentBuilder. There doesn’t exist a default implementation of this storage, the one on top of HashMap is only used for testing porposes, so you have to pass to the builder your own implementation of the desired storage.

Testing further implementations

To test this two implementations (and any new one which wants to respect the drools persistence semantic) together, I have created a simple set of abstract tests(*).
For Drools Expert:[…]/
For JBPM5[…]/
In a future will be great to abstract the current tests on JPA to be able to run abstract of the lower persistence layer.

What’s next

Clean up this interfaces a bit more and start working on a DB Berkley implementation

(*) tests names are not declarative enough, I’m holding a commit for this until coming repository split is done

Sobre la Programación Orientada a IDE©
September 27, 2009

Hace algún tiempo que vengo luchando contra este concepto[*]. La idea viene de la falacia que todo hay que hacerlo desde dentro de la IDE. Así, la IDE es la que termina guiando nuestro desarrollo y volviéndolo uno con la decisiones unilaterales que han tomado sus desarrolladores.
No estoy para nada en contra de las IDE, solo de las IDE que te obligan a hacer las cosas de la manera que se les antoja. Ésta es una herramienta y no quiero que me obligue a nada, yo quiero usarla como se me antoje y mi profesionalismo me indique para expresar mi arte.

Yendo al contexto Java, que es donde me siento cómodo seguro por el momento, me he encontrado con incontables casos donde a la pregunta de “cómo es su ciclo de deploy” la respuesta comienza con “exportamos el proyecto desde eclipse”…
Por qué esto está mal (sin orden particular)?
• Se depende de un humano para armar ‘entregables’ (no hay integración continua)
• Atenta contra la posibilidad de incluir a un nuevo integrante al equipo que haga uso de otra herramienta
• Tenemos que manejar las dependencias desde el eclipse
Otros efectos colaterales:
• Tendencia a ensuciar los controladores de versiones con cosas propias de las IDE
• Tendencia a nunca entender lo que una IDE hace tan mágicamente (aunque esto es algo inherente a la estupidez en cualquier contexto)
Soluciones a esto:
• Uso de Maven

Por qué Maven?
Maven no es nada de otro planeta ni hace magias oscuras. Hace muy pocas cosas y las hace bien. Mediante el uso de Maven se obtienen algunos puntos muy positivos: controlar dependencias, manejar ciclos de deploy (incluyendo el empaquetado) y unificar (de manera IDE agnóstica) convenciones a la hora de trabajar. Ésto último tiene un punto a destacar alucinante, que venga alguien totalmente ajeno a nuestro desarrollo y no se sienta [tan] perdido frente a cientos de archivos de código; va a saber dónde estan los fuentes, dónde buscar tests, dónde mirar a grandes rasgos qué bibliotecas se usan y va a poder generar un entregable corriendo un solo comando.

Qué es lo peor que podés hacer?
Intentar ajustar maven a tu proyecto y no al revés. Maven es una herramienta para organizar, que si bien deja que modifiques sus convenciones al hacerlo estarías perdiendo muchas de las cosas que destaqué en la pregunta anterior. Cuando te convenzas que estas son las cosas que querés que tu proyecto cumpla, pagá el precio por haber comenzado por la senda del mal y purga tu alma moviendo archivos y repensando los paquetes que tiene tu sistema.

Qué es algo feo feo de ver?
A alguien usando JBoss Developer Studio para mostrar las maravillas de Seam (básicamente hot deploy) cuando realmente conciliar estas maravillas con las ‘buenas prácticas’ antes mencionadas es imposible (y lo peor es que la mayoría de la gente valora más un entorno de desarrollo a-La PHP en lugar de un proyecto ordenado).

Quiénes son los más horrorizados con no comer/ver la tele/dormir con la IDE?
Los desarrolladores .Net . Ellos han comprado una serie de preceptos guiados por Visual Studio y sus wizards, que se les hace arcaico y elitista tratar de usar herramientas de línea de comando, el resto simplemente “la complican de gusto”.

Qué es lo que tendría que hacer un desarrollador nuevo cuando entra a un equipo?
• git clone [o el scm que quieran]
• mvn eclipse:eclipse [o la ide que quieran]
• [abrir la ide y buscar las cosas como tu intuición te indica]
• mvn package
• [deploy]
• [probar la aplicación]

Qué alternativas similares hay?
Para Java ninguna[**] y no me parece mal. Creo que se puede confiar bastante en los desarrolladores de maven como para que guien este camino.
Hablar de ciclos de desarrollo en otros lenguajes no puedo, solo comentar que en C se adolece del mismo problema que generó Ant en su momento, Autoconf/Autotools son infinitamente poderosos, infinitamente complejos y no existe una manera estándar de hacer las cosas, realmente una pena; apenas crece un poquito un proyecto C meterse es una tarea heroica.

[*]: término que nunca antes había escuchado :)
[**]: ant+ivy me parece una aberración mutante

Nuevo Eclipse Ganymede
June 30, 2008

Eclipse Foundation nos acerca la nueva versión de la IDE más utilizada hoy en día (sí, flame-war a la vista, pero de todos mis trabajos y compañeros, solo ví uno que usaba netbeans con la facilidad con la que me muevo en Eclipse, el salaboy nomás).
Lo pueden bajar de acá.
Primeras impresiones.
Mucha felicidad al ver que ya no me crea la molesta carpeta workspace en mi home cuando no la encuentra por primera vez!!!!! Cosa nada menor para un frenético del orden de su casa virtual (los archivos de crasheo de la JVM son para un experimento a futuro)

Seguimos adelante, para levantar tarda lo mismo que su predecesor. Una vez arriba lo miro, workspace en el mismo estado que como lo había dejado antes, salvo por una pequeña cosita en la barra de tareas… lo toco y me muestra una breadcrumb desde la raiz del proyecto hasta la clase actual, con una flechita al lado que despliega los contenidos de ese nivel. Algo de destacar, todavía no decido si bueno o malo, es que te muestra todo, incluso las carpetas ocultas (p.e. .svn).
Más pequeños cambios.
Cuando te parás sobre una clase y te despliega más info sobre esta, basta con posarse encima para que se le pongan las barras de desplazamiento (no como antes que había que apretar f2)
Visualmente no capto nada más de entrada.
Voy a preferencias y encuentro una nueva opción medio rara “Usage Data Collector“. Básicamente es un bicho que les avisa a los developers sobre tu comportamiento dentro de la IDE y les va a ayudar a mejorar ciertas cosas… a mí la verdad no me entusiasma esto así que se puede deshabilitar fácil.
Así a simple vista no encontré más boludecitas… cambiaron el ícono de la aplicación pero se olvidaron de poner el ícono xpm para usar como launcher en Gnome :P bug#86848

Igualmente en cuanto a nuevas features no voy a poder mostrar nada mucho más allá del laburo de este flaco en este blog
Ahora a esperar mi remerica

Java Server Faces I
October 24, 2006

Bueno, qué cuernos es JSF…

la verdad todavía no lo entiendo, pero vamos a ver qué onda. Por lo poco que vi y haciendo el ejemplo a continuación, no le veo, todavía grandes ventajas al uso de Spring con JSTL y EL expressions… incluso JSF por lo que vi tiene un motor de EL pero en lugar de declararse usando el ${} se hace con #{}.

Bueno, mi entorno es.
eclipse Version: 3.2.0 Build id: M20060629-1905
Apache Tomcat/5.5.17 (no uso el 5.5.20 porque aparentemente tiene un bug y no funciona bien el plugin de eclipse para levantarlo)
Apache MyFaces 1.1.4

Lo anterior es lo básico… ahora, para ambiente de desarrollo web, infaltable, el plugin de sysdeo para subir/bajar/reiniciar el tomcat. Instalar este es fácil, solo lo bajan, lo tiran en la carpeta plugins del eclipse (o de donde tengan apuntados sus plugins) y listo, despues, para usar el devLoader (que les permite cargar librerías externas a sus proyectos evitándose meter todo en WEB-INF/lib de entrada o, peor aún, tirarlas en common/lib del tomcat) descomprimen el, que viene dentro del zip del plugin de sysdeo, en $TOMCAT_HOME/server/classes. Lo único que no hay que olvidarse es, cuando uno agrega una librería al build path, tiene que agregarla a mano en el DevLoader en las propiedades del proyecto porque sino tira las molestas NoClassDefFoundError al levantar el tomcat (bueno, basta que no es la idea de hablar del tomcat).

El tutorial en cuestion es

No lo voy a explicar de nuevo, solo acotar cosas con las que lidié

  • En el web.xml hay que agregar las taglib que vamos a usar:

    y los tld los sacamos del myfaces-impl-1.1.4.jar de la carpeta META-INF (no tengo idea de por qué estas están acá)

  • Y en los JSP poner
    <%@ taglib uri="/jsf/html" prefix="h" %>
    <%@ taglib uri="/jsf/core" prefix="f" %>

El resto sale todo andando como está ahí. Las dependencias, entonces de mi proyecto fueron

  • commons-beanutils-1.7.0.jar
  • commons-collections-3.1.jar
  • commons-digester-1.6.jar
  • commons-lang-2.1.jar
  • myfaces-api-1.1.4.jar
  • myfaces-impl-1.1.4.jar

Como conclusión, por ahora, solo veo que no hay un controller como hay en otros frameworks MVC (Struts, Spring), es más parecido a Tapestry en ese sentido, solo que la navegabilidad está dada por el faces-config.xml. En principio no me gusta que el método de interacción termina siendo tambien uno medio intermedio, que si bien no es un controller con todas las letras (me refiero a que no tiene acceso al request y al response, pero esta es una mera ‘definición’ mía :P), casi, y los métodos llamados tienen que devolver Strings U_U no se, lógico que en algún lado hay que hacer el corte, y probablemente sea la mejor solución, solo que sigue sin convencerme.

Seguiremos investigando :P