cargar datos dsa_guarani_tmp para cubo procedencia

Hola a todos, quería realizar la siguiente consulta.
Tenemos instalado pentaho 3.8 con postgres en un servidor debian 6.
Nuestro inconveniente ocurre cuando ejecutamos las transformaciones que cargan el esquema guarani_tmp de la base siu_dsa con los archivos txt para el cubo de procedencias (cub_0003). Al hacerlo las tablas tienen errores de codificación con los caracteres especiales tales como Ñ y acentos.
Previamente a la ejecución de los jobs, cambiamos la codificación de los archivos txt a utf8.
Algunas de las transformaciones pudimos corregirlas mediante spoon mediante los siguientes pasos:
Por ejemplo para dsa_guarani_tmp_lt_localidades_load.ktr

  1. abrimos el archivo
  2. editamos la entrada de archivo de texto
  3. en la pestaña contenido cambiamos el formato a UNIX y la codificación a UTF-8.
  4. guardamos.

Esto nos ha servido para algunas transformaciones. Sin embargo otras, como las de provincias, siguen almacenando los datos con errores de codificación.

Lo curioso es que si ejecutamos las transformaciones problemáticas desde spoon funcionan bien y almacenan los datos sin estos problema de encoding. Pero cuando ejecutamos con kitchen el jobs cargar_datos_dsa_guarani_tmp_procedencia.kjb (que invoca a todas las transformaciones que cargan a guarani_tmp), los errores de codificación persisten.

Queríamos saber si nos falta hacer algo más para ejecutar el job de una vez y no tener que ejecutar cada transformación desde el spoon.

Saludos.

Hola,
por lo que comentás y los cambios que hicieron no deberían tener problemas al correr el Job principal para cargar los datos ya que llama a las trasformaciones que acaban de modificar.
Qué versión de PDI - Kettle están utilizando?

Estaría bueno si nos pueden mandar uno de los archivos que tienen problemas previo a la corrección. Además, si usan pgadmin u otro similar, les pregunto: qué dice la propiedad Encoding de la base? Los datos se ven correctamente al hacer un select a la tabla?