Phoronix se hace eco de un pequeño parche (apenas 200 lineas de código) del kernel de Linux, que incrementa de manera excepcional el rendimiento del escritorio cuando se está utilizando la multitarea. Este parche ha sido desarrollado por Mike Galbraith y es de esperar que tras las oportunas revisiones sea incluido en las nuevas versiones del kernel. Gracias al parche el scrolling es mucho mas suave e incluso llegas a tener la impresión de que las paginas web cargan más rapido.
Fuente:
http://www.phoronix.com/scan.php?page=article&item=linux_2637_video&num=1
miércoles, 17 de noviembre de 2010
martes, 9 de noviembre de 2010
Imágenes de Bayahibe - Rep. Dominicana
lunes, 8 de noviembre de 2010
Sharepoint 2007, "Error en la carga de Formulario Infopath, Event ID 5566 o 6932"
Devolviá un error al intentar cargar el formulario infopath de un portal, con el evento 5566 o 6932.
La causa, o el origen, desconocido...todo indica que pdo ser la actualización del framework 3.5
La solución, una combinación de elementos:
1) Deshabilitar el acceso anónimo al portal desde la consola de administración
Central Administration --> Application Management -->Authentication providers --> Seleccionar la web application --> click en Default y destildar el acceso anónimo.
2) Agregar en la registry del servidor el siguiente campo: DisableLoopBackCheck y habilitarlo
"...Este problema se produce si el nombre principal de servicio (SPN) del servicio no está autenticado. Si no está registrado el SPN para una cuenta de servicio, no se autentica el SPN. Windows Server 2003 SP1 incluye funcionalidad de comprobación de bucle invertido que se almacena en la siguiente entrada del registro:
HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\Lsa\DisableLoopbackCheck
De forma predeterminada, funcionalidad de comprobación de bucle invertido está activado en Windows Server 2003 SP1 y la entrada de registro DisableLoopbackCheck se establece en 0 (cero). La funcionalidad de comprobación de bucle invertido impide que el programa de registro del SPN..."
3) En el web.config del site se deben implementar los siguientes cambios:
Configurar el trust level en Full --> <trust level="Full" .../>
Configurar el proxy en autoDetect false --> <proxy autoDetect="False"/>
Esto aumenta el nivel de confianza por parte del site de sharepoint para poder ser accedido por datos y formularios.
Es la relacion de confianza, una restriccion establecida, el valor por defecto es Full, si lo dejas en blanco toma este valor., aunque venga restringido en la creacion de la aplicacion a Minimal, permite acceso a origenes de datos, llamadas a componentes, etc.
martes, 3 de agosto de 2010
Nueva versión del kernel de Linux
Linux ha anunciado la versión 2.6.35 y estas son las principales novedades. Esta versión añade soporte para repartir automáticamente la carga de red entrante entre varias CPUs, soporte de Direct I/O para Btrfs, un modo de journaling alternativo para XFS, inclusión de la interfaz del depurador KDB, varias mejoras de perf, aceleración de vídeo H.264 y VC1 en hardware Intel G45+, soporte del futuro Intel Cougarpoint, un sistema de defragmentación de la memoria, soporte de L2TP versión 3 (RFC 3931), varios drivers y muchas pequeñas mejoras más.
· Reparto automático entre varias CPUs del tráfico de red de entrada: Las tarjetas de red actuales han mejorado su rendimiento hasta el punto de que para una sola CPU moderna es cada vez más difícil mantener el ancho de banda de recepción al máximo. Dos nuevas características, contribuidas por Google, ayudan a repartir automáticamente la carga de los paquetes de red entrantes entre varias CPUs (los salientes ya se reparten por si solos). El procesado de protocolos(IP, TCP) se ha modificado para que pueda hacerse en paralelo. Cada dispositivo de red utiliza diferentes heurísticas para decidir en qué CPU se procesará el paquete (hash de la cabecera del paquete, afinidad con la CPU en la que se está ejecutando la aplicación que lo va a recibir). Esta característica emula por software lo que una tarjeta de red multiqueue hace en hardware. Un benchmark de 500 instancias del test netperf TCP_RR con 1 byte de petición y respuesta en una e1000e montada en un servidor con CPU Intel de 8 cores ascienden de 104K tps a 303K tps. Un test RPC con 100 threads en cada host, va de 103K tps a 223K, y con menos latencia.
· Mejoras Btrfs: Direct I/O y -ENOSPC completo. Direct I/O es una técnica utilizada para saltarse el caché a la hora de escribir. Esto daña el rendimiento (es como montar un sistema de archivos en modo "sync"), pero es utilizado extensivamente en grandes bases de datos a las que les gusta implementar su propio cache optimizado. -ENOSPC completo: Linux 2.6.32 ya tenía soporte de -ENOSPC para el uso común del sistema de archivos, pero existían varios casos raros en ciertas operaciones complejas, como operaciones de gestión de volumenes, en los que podía haber fallos. El código -ENOSPC de esta versión maneja correctamente todos los casos: balanceo de espacio libre, gestión de discos, logging de fsync y otros.
· XFS delayed logging: Esta versión añade un nuevo modo de journaling para XFS llamado "delayed logging", que ha sido modelado según los sistemas de journaling de Ext3/4 y reiserfs. Permite acumular múltiples transacciones asíncronas en memoria. La reducción del ancho de banda utilizado para el log decrece en gran medida, y las cargas que hacen un uso intensivo de los metadatos aumentan su rendimiento en la misma proporción. El formato de disco del journal no ha cambiado, solo las estructuras en memoria y el código. Esta característica es aun experimental, asi que no está recomendada excepto para pruebas. Puede activarse con la opción "-o delaylog"
· Frontend del depurador KDB: Linux ha tenido un depurador desde 2.6.26, llamado Kgdb. Pero desde hace años existen dos depuradores para Linux, Kgdb y KDB. La diferencia entre ambos siempre fue que Kgdb requiere un ordenador adicional en el que ejecutar una instancia de gdb, que permite una depuración profunda. KDB, en cambio, puede utilizarse en el mismo ordenador, pero sus características de depurado son más simples. En esta versión se ha incluido también el depurador KDB, pero modificado para funcionar sobre los mecanismos internos de KGDB.
· Mejoras de perf:
- Modo "live" perf-inject: Hasta ahora, los usuarios tenían que ejecutar "perf record" y "perf report" en dos comandos diferentes.
Perf-inject introduce un modo "live", que permite grabar y reportar en un solo comando, como por ejemplo perf record -o - ./hackbench 10 | perf inject -v -b | perf report -v -i - . Pero esto es demasiado complejo, asi que se ha añadido soporte para invocar automáticamente el modo live si no se especifica record/report. Por ejemplo: perf trace rwtop 5.
Cualquiera de los scripts listados en 'perf trace -l' pueden utilizarse directamente el modo live.
- perf kvm: Una herramienta para monitorizar el rendimiento de las VMs desde el host.
- perf probe: Soporte para acceder a miembros de las estructuras de datos. Con est, perf-probe acepta miembros de estructuras (es decir, acepta los operadores punto '.' y flecha '->') como argumentos. Ejemplos: # perf probe --add 'schedule:44 rq->curr'. O # perf probe --add 'vfs_read file->f_op->read file->f_path.dentry'
- Mejorar --list: para mostrar las sondas existentes con número de línea y nombre de archivo. Esto permite comprobar fácilmente qué linea está "sondeada". Por ejemplo:
# perf probe --list
probe:vfs_read (on vfs_read:8@linux-2.6-tip/fs/read_write.c)
- Implementación de una UI en la consola con newt.
· Mejoras gráficas i915: Soporte de aceleración para vídeo H.264 y VC1 en hardware G45+, soporte del futuro Intel Cougarpoint, monitorización de energía y autorefresco de memoria en hardware Ironlake. Radeon: Trabajo inicial para la gestión de energía, simplificación y mejora del reseteo de GPU, implementación varias partes importantes para soportar chips Evergreen, permitir el uso de VRAM no mapeable, soporta para cuando no hay salidas de vídeo conectadas.
· Compactación de memoria: Este es un mecanismo que trata de reducir la fragmentación externa de la memoria que intenta agrupar las páginas utilizadas y las libres en un gran bloque de páginas usadas y un gran bloque de páginas libres, lo que permite hacer asignaciones de memoria grandes que no son posibles si hay fragmentación. La implementación consiste en dos escanners, uno de páginas a migrar, que empieza a buscar páginas utilizadas por el principio de la zona de memoria, y otro de páginas libres, que empieza a buscar páginas libres por el final. Cuando ambos escanners se encuentran en el medio de la zona, se mueven las páginas utilizadas al lugar de las libres. Las pruebas han mostrado que la cantidad de I/O requerido para satisfacer una gran asignación disminuye drásticamente. La compactación puede activarse de tres modos diferentes: manualmente, escribiendo algún valor a /proc/sys/vm/compact_memory. Puede activarse manualmente, pero para una sola zona determinada, escribiendo algún valor a /sys/devices/system/node/nodeN/compact. Y también se activa automáticamente cuando no se consigue asignar una gran porción de memoria.
· Soporte para múltiples tablas de ruta multicast: normalmente, un router multicast ejecuta un demonio en espacio de usuario que decide con un paquete fijándose en las direcciones de origen y destino. Esta característica añade soporte para múltiples tablas de rutas multicast, así el kernel es capaz de tomar las interfaces y las marcas de los paquetes y ejecutar múltiples demonios en espacio de usuario simultaneamente, cada uno manejando una sola tabla.
· Soporte de L2TP versión 3 (RFC 3931): Esta versión añade soporte para Layer 2 Tunneling Protocol (L2TP) version 3, RFC 3931.
· Protocolo CAIF: Se trata de un protocolo utilizado por módems ST-Ericsson.
· ACPI Platform Error Interface: Soporte para la ACPI Platform Error Interface (APEI). Este sistema mejora especialmente la gestión de NMI (interrupciones no enmascarables). Además, soporta una tabla para guardar errores MCE en flash
La lista completa de novedades se puede ver aquí:
http://kernelnewbies.org/Linux_2_6_35
· Reparto automático entre varias CPUs del tráfico de red de entrada: Las tarjetas de red actuales han mejorado su rendimiento hasta el punto de que para una sola CPU moderna es cada vez más difícil mantener el ancho de banda de recepción al máximo. Dos nuevas características, contribuidas por Google, ayudan a repartir automáticamente la carga de los paquetes de red entrantes entre varias CPUs (los salientes ya se reparten por si solos). El procesado de protocolos(IP, TCP) se ha modificado para que pueda hacerse en paralelo. Cada dispositivo de red utiliza diferentes heurísticas para decidir en qué CPU se procesará el paquete (hash de la cabecera del paquete, afinidad con la CPU en la que se está ejecutando la aplicación que lo va a recibir). Esta característica emula por software lo que una tarjeta de red multiqueue hace en hardware. Un benchmark de 500 instancias del test netperf TCP_RR con 1 byte de petición y respuesta en una e1000e montada en un servidor con CPU Intel de 8 cores ascienden de 104K tps a 303K tps. Un test RPC con 100 threads en cada host, va de 103K tps a 223K, y con menos latencia.
· Mejoras Btrfs: Direct I/O y -ENOSPC completo. Direct I/O es una técnica utilizada para saltarse el caché a la hora de escribir. Esto daña el rendimiento (es como montar un sistema de archivos en modo "sync"), pero es utilizado extensivamente en grandes bases de datos a las que les gusta implementar su propio cache optimizado. -ENOSPC completo: Linux 2.6.32 ya tenía soporte de -ENOSPC para el uso común del sistema de archivos, pero existían varios casos raros en ciertas operaciones complejas, como operaciones de gestión de volumenes, en los que podía haber fallos. El código -ENOSPC de esta versión maneja correctamente todos los casos: balanceo de espacio libre, gestión de discos, logging de fsync y otros.
· XFS delayed logging: Esta versión añade un nuevo modo de journaling para XFS llamado "delayed logging", que ha sido modelado según los sistemas de journaling de Ext3/4 y reiserfs. Permite acumular múltiples transacciones asíncronas en memoria. La reducción del ancho de banda utilizado para el log decrece en gran medida, y las cargas que hacen un uso intensivo de los metadatos aumentan su rendimiento en la misma proporción. El formato de disco del journal no ha cambiado, solo las estructuras en memoria y el código. Esta característica es aun experimental, asi que no está recomendada excepto para pruebas. Puede activarse con la opción "-o delaylog"
· Frontend del depurador KDB: Linux ha tenido un depurador desde 2.6.26, llamado Kgdb. Pero desde hace años existen dos depuradores para Linux, Kgdb y KDB. La diferencia entre ambos siempre fue que Kgdb requiere un ordenador adicional en el que ejecutar una instancia de gdb, que permite una depuración profunda. KDB, en cambio, puede utilizarse en el mismo ordenador, pero sus características de depurado son más simples. En esta versión se ha incluido también el depurador KDB, pero modificado para funcionar sobre los mecanismos internos de KGDB.
· Mejoras de perf:
- Modo "live" perf-inject: Hasta ahora, los usuarios tenían que ejecutar "perf record" y "perf report" en dos comandos diferentes.
Perf-inject introduce un modo "live", que permite grabar y reportar en un solo comando, como por ejemplo perf record -o - ./hackbench 10 | perf inject -v -b | perf report -v -i - . Pero esto es demasiado complejo, asi que se ha añadido soporte para invocar automáticamente el modo live si no se especifica record/report. Por ejemplo: perf trace rwtop 5.
Cualquiera de los scripts listados en 'perf trace -l' pueden utilizarse directamente el modo live.
- perf kvm: Una herramienta para monitorizar el rendimiento de las VMs desde el host.
- perf probe: Soporte para acceder a miembros de las estructuras de datos. Con est, perf-probe acepta miembros de estructuras (es decir, acepta los operadores punto '.' y flecha '->') como argumentos. Ejemplos: # perf probe --add 'schedule:44 rq->curr'. O # perf probe --add 'vfs_read file->f_op->read file->f_path.dentry'
- Mejorar --list: para mostrar las sondas existentes con número de línea y nombre de archivo. Esto permite comprobar fácilmente qué linea está "sondeada". Por ejemplo:
# perf probe --list
probe:vfs_read (on vfs_read:8@linux-2.6-tip/fs/read_write.c)
- Implementación de una UI en la consola con newt.
· Mejoras gráficas i915: Soporte de aceleración para vídeo H.264 y VC1 en hardware G45+, soporte del futuro Intel Cougarpoint, monitorización de energía y autorefresco de memoria en hardware Ironlake. Radeon: Trabajo inicial para la gestión de energía, simplificación y mejora del reseteo de GPU, implementación varias partes importantes para soportar chips Evergreen, permitir el uso de VRAM no mapeable, soporta para cuando no hay salidas de vídeo conectadas.
· Compactación de memoria: Este es un mecanismo que trata de reducir la fragmentación externa de la memoria que intenta agrupar las páginas utilizadas y las libres en un gran bloque de páginas usadas y un gran bloque de páginas libres, lo que permite hacer asignaciones de memoria grandes que no son posibles si hay fragmentación. La implementación consiste en dos escanners, uno de páginas a migrar, que empieza a buscar páginas utilizadas por el principio de la zona de memoria, y otro de páginas libres, que empieza a buscar páginas libres por el final. Cuando ambos escanners se encuentran en el medio de la zona, se mueven las páginas utilizadas al lugar de las libres. Las pruebas han mostrado que la cantidad de I/O requerido para satisfacer una gran asignación disminuye drásticamente. La compactación puede activarse de tres modos diferentes: manualmente, escribiendo algún valor a /proc/sys/vm/compact_memory. Puede activarse manualmente, pero para una sola zona determinada, escribiendo algún valor a /sys/devices/system/node/nodeN/compact. Y también se activa automáticamente cuando no se consigue asignar una gran porción de memoria.
· Soporte para múltiples tablas de ruta multicast: normalmente, un router multicast ejecuta un demonio en espacio de usuario que decide con un paquete fijándose en las direcciones de origen y destino. Esta característica añade soporte para múltiples tablas de rutas multicast, así el kernel es capaz de tomar las interfaces y las marcas de los paquetes y ejecutar múltiples demonios en espacio de usuario simultaneamente, cada uno manejando una sola tabla.
· Soporte de L2TP versión 3 (RFC 3931): Esta versión añade soporte para Layer 2 Tunneling Protocol (L2TP) version 3, RFC 3931.
· Protocolo CAIF: Se trata de un protocolo utilizado por módems ST-Ericsson.
· ACPI Platform Error Interface: Soporte para la ACPI Platform Error Interface (APEI). Este sistema mejora especialmente la gestión de NMI (interrupciones no enmascarables). Además, soporta una tabla para guardar errores MCE en flash
La lista completa de novedades se puede ver aquí:
http://kernelnewbies.org/Linux_2_6_35
miércoles, 14 de julio de 2010
Error del Excel Service en Sharepoint
De golpe y porrazó dejaron de visualizarce los contenidos excel service en los portales, cuando revizo el visor de ecentos me encuentro con este error:
Event Type: Error
Event Source: Office SharePoint Server
Event Category: Excel Calculation Services
Event ID: 5226
Description:
Unable to create or access workbook cache at C:\Temp\Excel Server\FileCache\SSP-1194025625\. Excel Services is unable to function without a workbook cache.
Revicé un poco el servidor y veo que tenia poco espacio en disco, y efectivamente, una de las causas de este evento es la falta de espacio. Cuando liberé un poco el disco el problema seguia apareciendo.
Investigando un poco encontré como resolverlo:
1 - Bajar el servicio del IIS (bajar solamente el servico de Sharepoint no es suficiente)
2 - Borrar y volver a crear la carpeta especificada en la dirección que muestra el evento "C:\Temp\Excel Server\FileCache\SSP-1194025625\", yo la cree en una partición con más espacio para que no vuelva a ocurrir el problema.
3 - A la nueva carpeta "\Excel Server" se le deben cargar los siguientes usuarios y setear los siguientes permisos:
I - Usuario local WSS_ADMIN_WPG con permisos Full Control
II - Usuario local WSS_WPG con permisos Read y Execute
4 - En caso de cambiar de ubicación la carpeta temporal, esta nueva ruta se debe setear en la consiola de administración central de sharepoint:
Central administration ---> SSP ---> Edit Excel Services Setting ---> Workbook Cache Location ---> acá copiar la nueva ruta.
5 - Iniciar unevamente el IIS.
Cabe aclarar que si la carpeta se crea en una nueva ubicación entonces esta se debe crear y la nueva ruta se debe setear en Sharepoint antes de bajar el servicio del IIS.
Event Type: Error
Event Source: Office SharePoint Server
Event Category: Excel Calculation Services
Event ID: 5226
Description:
Unable to create or access workbook cache at C:\Temp\Excel Server\FileCache\SSP-1194025625\. Excel Services is unable to function without a workbook cache.
Revicé un poco el servidor y veo que tenia poco espacio en disco, y efectivamente, una de las causas de este evento es la falta de espacio. Cuando liberé un poco el disco el problema seguia apareciendo.
Investigando un poco encontré como resolverlo:
1 - Bajar el servicio del IIS (bajar solamente el servico de Sharepoint no es suficiente)
2 - Borrar y volver a crear la carpeta especificada en la dirección que muestra el evento "C:\Temp\Excel Server\FileCache\SSP-1194025625\", yo la cree en una partición con más espacio para que no vuelva a ocurrir el problema.
3 - A la nueva carpeta "\Excel Server" se le deben cargar los siguientes usuarios y setear los siguientes permisos:
I - Usuario local WSS_ADMIN_WPG con permisos Full Control
II - Usuario local WSS_WPG con permisos Read y Execute
4 - En caso de cambiar de ubicación la carpeta temporal, esta nueva ruta se debe setear en la consiola de administración central de sharepoint:
Central administration ---> SSP ---> Edit Excel Services Setting ---> Workbook Cache Location ---> acá copiar la nueva ruta.
5 - Iniciar unevamente el IIS.
Cabe aclarar que si la carpeta se crea en una nueva ubicación entonces esta se debe crear y la nueva ruta se debe setear en Sharepoint antes de bajar el servicio del IIS.
jueves, 24 de junio de 2010
Y volviendo a Linux :) Script para clasificar archivos
Este es un pequeños script que permite clasificar archivos por fecha, a partir de una fecha seteada previamente compara con las fechas de todos los archivos especificados en una ubicación y mueve a otro destino aquellos que tienen más de 2 años, este fue mi caso pero se puede acomodar para cualquier periodo de tiempo. La fecha se setea en un txt temporal que en mi caso se llama 2years y busca todos los archivos mayores a dos años utilizando el comando awk para poder clasificarlos por fecha. En este caso el script hace 2 cosas, primero arma un txt en el que lista todos los archivos mayores a dos años encontrados y en el segundo paso mueve dichos archivos a su nueva ubicación.
Este script me sacó de un apuro al momento de tener que realizar una depuración de miles de archivos por falta de espacio en disco.
#!/bin/sh
DIRFILES=/usr/local/files
MES=`date +%m`
touch -t `date -d '2 years ago' +%y%m%d0000` /tmp/2years
find $DIRFILES -type f ! -newer /tmp/2years -exec ls -1 {} \; | awk -F/ '{print $8}' > /usr/local/scripts/files_depurados/depurados-$MES.txt
find $DIRFILES -type f ! -newer /tmp/2years -exec mv {} /depurados/ \;
Este script me sacó de un apuro al momento de tener que realizar una depuración de miles de archivos por falta de espacio en disco.
#!/bin/sh
DIRFILES=/usr/local/files
MES=`date +%m`
touch -t `date -d '2 years ago' +%y%m%d0000` /tmp/2years
find $DIRFILES -type f ! -newer /tmp/2years -exec ls -1 {} \; | awk -F/ '{print $8}' > /usr/local/scripts/files_depurados/depurados-$MES.txt
find $DIRFILES -type f ! -newer /tmp/2years -exec mv {} /depurados/ \;
viernes, 28 de mayo de 2010
Migrar MOSS 2007 a un nuevo servidor de base de datos conservando el mismo servidor front-end
Después de dar muchas vueltas probando varias recetas sin que alguna funcione, pude resolver el tema. El problema es que moss no tiene una receta definida para migrar las bases de datos a un nuevo seridor así que tuve hacer un mix de un par de recetas hasta que funcionó.
A todo esto, mi caso era bastante particular porque tenia dos servidores de base de datos en el farm, en uno estaban las bases de configuración y de la administración central y en el otro todas las bases de contenidos de los portales y el objetivo era pasar las bases de configuración y administración al servidor con las bases de contenido. Así que se rebuscaba un poco más la cosa.
Receta:
1- Hacer backup completo, de todo, bases de datos de configuración, de SSP, de contenidos.
En mi caso hice backup de las base de datos de contenido de los portales que ya estaban creadas en el servidor destino usando el stsadm:
stsadm -o backup -url [url del sitio a migrar] -filename [patch y nombre que le ponemos al archivo de backup.bak]
Luego hice backup de los SSP con el siguiente comando:
stsadm -o backup -directory [directorio destino del bck] -backupmethod full -item [nombre del SSP]. Es uno para cada SSP si hay más de uno
Backup de las bases de configuración y contenido central SharePoint_config y Sharepoint_Admin llendo a la base de datos con el SQL Manger, boton derecho sobre la base de datos en cuestión, opción task y backup.
2- Tomar nota de todas las configuraciones particulares que hayamos realizado.
•Asignaciones de Acceso Alternativas
•Correo Saliente
•Cuentas de Servicio
•Distribución de Contenido (si es que lo usan)
•Soluciones
•Perfiles de Usuario (Servicios Compartidos): Configuración de importación de perfiles
•Búsqueda (Servicios Compartidos): Orígenes de contenido y programación de rastreo, y Reglas de rastreo.
•Excel Services ( Servicios Compartidos): Cuenta de Servicio Desatendida, Ubicaciones de Archivos de Confianza, y Bibliotecas de datos de conexión de confianza.
3- En mi caso, borrar todas las bases de datos de contenido existentes en el servidor destino.
SQL Manager, boton derecho sobre cada base de datos, opción delete.
4- Desconectar el moss del farm actual(actual servidor de base de datos).
Para esto ejecutamos el asistente de instalación de MOSS, Wizard tools y seleccionamos la opción desconectar del farm actual, entonces desconectamos el sharepoint de la base de datos actual
5- Conectar el moss a un nuevo farm (con el servidor de base de datos destino).
Ejecutar nuevamente el wizard y seleccionar la opción conectar a un nuevo farm, aparece una pantalla en la que debemos cargar el nombre del servidor de base de datos destino, nombre la base de datos de configuración, usuario y password de administración de MOSS.
(Corroborar que la configuración de la base de datos del nuevo servidor el usuario tenga permisos dbcreator y owner)
Terminado esto deberia levantar sin problemas el portal de la administración central
6- Configurar el nuevo SSP (Probe a restaurar un backup del SSP existente pero no funcionó, a lo mejor a alguien si le funcione y me cuenta, a mi me daba event id 7888. Las soluciones que encontré no me ayudaroon demasiado).
Para esto crear un nuevo SSP desde la administración central de MOSS.
Si desean probar a restaurar el SSP anterior, lo hacen con el siguiente comando:
stsadm -o backuphistory -directory [directorio dónde se guardo el backup] Muestra el Id del backup que lo van a utilizar para restaurarlo con este comando:
stsadm -o restore -directory [directori donde se almacenó el backup] -restoremethod new -backupid [id que antes les mencioné] -newdatabaseserver [nombre de la instancia del nuevo servidor de base de datos]
7- Restaurar las bases de contenido.
Y para finalizar debemos restaurar las bases de contenido de los portales para que se carguen con la nueva base de datos de configuración de MOSS con el siguiente comando:
stsadm -o restore -url [url del sitio a migrar] -filename [patch y nombre que le ponemos al archivo de restore.bak]
Espero que sirva y cualquier cosa consultan.
A todo esto, mi caso era bastante particular porque tenia dos servidores de base de datos en el farm, en uno estaban las bases de configuración y de la administración central y en el otro todas las bases de contenidos de los portales y el objetivo era pasar las bases de configuración y administración al servidor con las bases de contenido. Así que se rebuscaba un poco más la cosa.
Receta:
1- Hacer backup completo, de todo, bases de datos de configuración, de SSP, de contenidos.
En mi caso hice backup de las base de datos de contenido de los portales que ya estaban creadas en el servidor destino usando el stsadm:
stsadm -o backup -url [url del sitio a migrar] -filename [patch y nombre que le ponemos al archivo de backup.bak]
Luego hice backup de los SSP con el siguiente comando:
stsadm -o backup -directory [directorio destino del bck] -backupmethod full -item [nombre del SSP]. Es uno para cada SSP si hay más de uno
Backup de las bases de configuración y contenido central SharePoint_config y Sharepoint_Admin llendo a la base de datos con el SQL Manger, boton derecho sobre la base de datos en cuestión, opción task y backup.
2- Tomar nota de todas las configuraciones particulares que hayamos realizado.
•Asignaciones de Acceso Alternativas
•Correo Saliente
•Cuentas de Servicio
•Distribución de Contenido (si es que lo usan)
•Soluciones
•Perfiles de Usuario (Servicios Compartidos): Configuración de importación de perfiles
•Búsqueda (Servicios Compartidos): Orígenes de contenido y programación de rastreo, y Reglas de rastreo.
•Excel Services ( Servicios Compartidos): Cuenta de Servicio Desatendida, Ubicaciones de Archivos de Confianza, y Bibliotecas de datos de conexión de confianza.
3- En mi caso, borrar todas las bases de datos de contenido existentes en el servidor destino.
SQL Manager, boton derecho sobre cada base de datos, opción delete.
4- Desconectar el moss del farm actual(actual servidor de base de datos).
Para esto ejecutamos el asistente de instalación de MOSS, Wizard tools y seleccionamos la opción desconectar del farm actual, entonces desconectamos el sharepoint de la base de datos actual
5- Conectar el moss a un nuevo farm (con el servidor de base de datos destino).
Ejecutar nuevamente el wizard y seleccionar la opción conectar a un nuevo farm, aparece una pantalla en la que debemos cargar el nombre del servidor de base de datos destino, nombre la base de datos de configuración, usuario y password de administración de MOSS.
(Corroborar que la configuración de la base de datos del nuevo servidor el usuario tenga permisos dbcreator y owner)
Terminado esto deberia levantar sin problemas el portal de la administración central
6- Configurar el nuevo SSP (Probe a restaurar un backup del SSP existente pero no funcionó, a lo mejor a alguien si le funcione y me cuenta, a mi me daba event id 7888. Las soluciones que encontré no me ayudaroon demasiado).
Para esto crear un nuevo SSP desde la administración central de MOSS.
Si desean probar a restaurar el SSP anterior, lo hacen con el siguiente comando:
stsadm -o backuphistory -directory [directorio dónde se guardo el backup] Muestra el Id del backup que lo van a utilizar para restaurarlo con este comando:
stsadm -o restore -directory [directori donde se almacenó el backup] -restoremethod new -backupid [id que antes les mencioné] -newdatabaseserver [nombre de la instancia del nuevo servidor de base de datos]
7- Restaurar las bases de contenido.
Y para finalizar debemos restaurar las bases de contenido de los portales para que se carguen con la nueva base de datos de configuración de MOSS con el siguiente comando:
stsadm -o restore -url [url del sitio a migrar] -filename [patch y nombre que le ponemos al archivo de restore.bak]
Espero que sirva y cualquier cosa consultan.
lunes, 17 de mayo de 2010
Al buscar en un sitio nunca devuelve información y el event viewer devuelve event id 10038/10039/10040
Este error se genera al fallar el indexado, como que el mismo se corrompe y no devuelve ninguna información al requerir una búsqueda. También puede encontrarse asociado a la aprición del Event ID 6482
La solución a este problema se describe en el siguiente link
"http://www.networkfoo.org/server-infrastructure/moss-search-error-content-index-corrupt-unable-connect-search-service"
Pero básicamente consiste en resetear el crawll, para esto vamos a SSP,"search setting" hacer click en "Reset all crawled content" y luego en el botón "reset now". Esto borra todo el contenido indexado, lo deja en blanco entonces se puede volver a correr el crawll sin problemas para que la búsqueda empiece a devolver contenidos nuevamente, para esto hay que ir a "Content sources and crawl schedules" luego desplegar el menú en "Local Office SharePoint Server sites" y dar click en "start crawl full"
viernes, 30 de abril de 2010
Herramienta de monitoreo para portal Sharepoint
Me pasaron el dato de una herramienta de monitoreo FREE para portales Sharepoint y me decidí a probarla.
El link para descargar la herramienta es http://www.idera.com/Content/Home.aspx.
La imagen muestra el tablero que brinda el producto. Hay datos de conexiones entrantes, de performance del servidor, de las apliciones ASP.
El link para descargar la herramienta es http://www.idera.com/Content/Home.aspx.
Descargué la herramienta y la probé en un ambiente de pruebas. Particularmente me pareció una herramienta que brinda información muy básica, si lo que buscan es un reporte de funcionamiento ligero, es la herramienta adecuada, pero si se busca reportes más detallados y profundos directamente no aporta nada.
Si debo reconocer que es muy facil de instalar y configurar, directamente se le carga el link del portal a monitorear y listo.
martes, 27 de abril de 2010
Actrualizar Motorola Milestone para Personal Argentia a versión 2.0.1
Para los que somos usuarios de Milestone en Argentina ya está disponible la actualización a la versión 2.0.1 del SO Android.
Yo se que muschos esperan la actualización a la versión 2.1 prometida para estos días pero peor es nada, corrige varios bugs y le da otra cara al milestone.
Para actualizarlo es mu facil:
Acceder a este link http://direct.motorola.com/ hellomoto/support/update/
Cargar los datos del país, luego del modelo de celular y luego de la operadora.
Con esto quedan habilitados para descargar el software de actualización de motorola, se descarga y lo instalan en sus PC's.
Cuando esté instalado lo ejecutan, les pide que conecten el celu a la pc con el cable USB y no es más que seguir los pasos que indica el soft.
Son 3 pasos en total y dependiendo de la velocidad de conxión demora entre 35 minutos y1 hora.
Espero les sea util y repito, si bien no es la versión 2.1, es una actualización habilitada para Milestone Personal y no hay que piratear una actualización para otro país jaja.
Saludos
Yo se que muschos esperan la actualización a la versión 2.1 prometida para estos días pero peor es nada, corrige varios bugs y le da otra cara al milestone.
Para actualizarlo es mu facil:
Acceder a este link http://direct.motorola.com/
Cargar los datos del país, luego del modelo de celular y luego de la operadora.
Con esto quedan habilitados para descargar el software de actualización de motorola, se descarga y lo instalan en sus PC's.
Cuando esté instalado lo ejecutan, les pide que conecten el celu a la pc con el cable USB y no es más que seguir los pasos que indica el soft.
Son 3 pasos en total y dependiendo de la velocidad de conxión demora entre 35 minutos y1 hora.
Espero les sea util y repito, si bien no es la versión 2.1, es una actualización habilitada para Milestone Personal y no hay que piratear una actualización para otro país jaja.
Saludos
lunes, 26 de abril de 2010
Diferentes errores con los que me encontre administrando Sharepoint 2007
Al buscar en un sitio nunca devuelve información y el event viewer
devuelve event id 10039/10040
Este error se genera al fallar el indexado, como que el mismo se corrompe y no devuelve ninguna información al requerir una búsqueda.
La solución a este problema se describe en el siguiente link
http://www.networkfoo.org/server-infrastructure/moss-search-error-content-index-corrupt-unable-connect-search-service
Pero básicamente consiste en resetear el crawll, en "search setting" hacer click en "Reset all crawled content" y luego en el botón "reset now". Esto borra todo el contenido indexado, lo deja en blanco entonces se puede volver a correr el crawll sin problemas para que la búsqueda empiece a devolver contenidos nuevamente, para esto hay ir a "Content sources and crawl schedules" luego desplegar el menú en "Local Office SharePoint Server sites" y dar click en "start crawl full"
Cuando se quiere realizar un Full Crawl aparaece event id 2424
En SharePoint Services Search Service Settings setear la cuenta de servicio con la misma cuenta con la que está sereada la Content Acces Account.
Se cae el servicio del IIS y se pierde el acceso a los portales de Sharepoint
A causa de este problema en el visor de eventos se aprecian los siguientes event id: 6482, 7076, 6398, todos relacionados con el mismo problema. Se encontró que esto se debe a un problema del IIS.
Detalles:
Tiene un proceso que tiene más de un subproceso. Dos subprocesos tienen acceso a IIS a la vez. En este escenario, es posible que no pueda administrar IIS mediante el Administrador de servidores.
Cuando intenta administrar IIS mediante el Administrador de servidores, aparece una página en blanco o recibirá mensaje de error siguientes:
Este problema es probable que se produzca para el servicio de temporizador de SharePoint (OWSTimer.exe) y puede experimentar los síntomas siguientes:
Se descarga el hostfix seleccionando la versión adecuada según el SO y se instala.
Este error se genera al fallar el indexado, como que el mismo se corrompe y no devuelve ninguna información al requerir una búsqueda.
La solución a este problema se describe en el siguiente link
http://www.networkfoo.org/server-infrastructure/moss-search-error-content-index-corrupt-unable-connect-search-service
Pero básicamente consiste en resetear el crawll, en "search setting" hacer click en "Reset all crawled content" y luego en el botón "reset now". Esto borra todo el contenido indexado, lo deja en blanco entonces se puede volver a correr el crawll sin problemas para que la búsqueda empiece a devolver contenidos nuevamente, para esto hay ir a "Content sources and crawl schedules" luego desplegar el menú en "Local Office SharePoint Server sites" y dar click en "start crawl full"
Cuando se quiere realizar un Full Crawl aparaece event id 2424
En SharePoint Services Search Service Settings setear la cuenta de servicio con la misma cuenta con la que está sereada la Content Acces Account.
- En Central Administration > Operations > Services on Server > click en Windows SharePoint Services Help Search.
-
Vamos a estar posisionados en Configure Windows SharePoint Services Search Service Settings on server XXXXXX, acá actualizar la "Service Account" con la misma cuenta que "Content Access Account" y dar Ok. - Reiniciar el servicio del IIS o en su defecto reiniciar el servidor.
Se cae el servicio del IIS y se pierde el acceso a los portales de Sharepoint
A causa de este problema en el visor de eventos se aprecian los siguientes event id: 6482, 7076, 6398, todos relacionados con el mismo problema. Se encontró que esto se debe a un problema del IIS.
Detalles:
Tiene un proceso que tiene más de un subproceso. Dos subprocesos tienen acceso a IIS a la vez. En este escenario, es posible que no pueda administrar IIS mediante el Administrador de servidores.
Cuando intenta administrar IIS mediante el Administrador de servidores, aparece una página en blanco o recibirá mensaje de error siguientes:
la ruta especificada no
puede utilizarse en este momento
Este problema es probable que se produzca para el servicio de temporizador de SharePoint (OWSTimer.exe) y puede experimentar los síntomas siguientes:
- En SharePoint Server 2007, no ejecuten las tareas programadas.
- Errores en el registro de la aplicación en elevent viewer:
- ID. de suceso 6398
- ID. de suceso 6482
- ID. de suceso 7076
Se descarga el hostfix seleccionando la versión adecuada según el SO y se instala.
Suscribirse a:
Entradas (Atom)