lunes, 24 de diciembre de 2012


La comunidad Linux ha experimentado un progreso inigualable estos años. Este software libre ha alcanzado un gran desarrollo gracias a su capacidad de gestionar tecnologías clave como el cloud, el big data, la gestión de bases de datos y el supercomputing. Además. las soluciones de código abierto están viviendo un auge magnífico y se espera que el próximo año sigan siendo tendencia.
SUSE, una de las distribuciones Linux y pionero en software de código abierto, ha analizado cuáles serán los retos y oportunidades a los que se enfrenta el sector en 2013.

Los servicios en la nube toman partido

El 2012 ha visto grandes mejoras en el mercado del cloud computing, conformándose una comunidad de colaboradores organizada y potente que venden y desarrollan sus propias soluciones basadas en la nube. Este progreso seguirá en alza y la mayoría de las adopciones cloud pioneras surgirán de una solución de código abierto porque este ayuda a superar fácilmente las barreras.
Asimismo, el código abierto impulsará innovaciones en almacenamiento, configuración y gestión, ya que los entornos cloud  necesitarán trabajar en armonía con el resto de la infraestructura TI de la empresa.

Big Data, del análisis al conocimiento

El Big Data es otra área que está teniendo una gran notoriedad y a la que Linux contribuye a través de su estructura. Ésta puede manejar la carga de trabajo de grandes procesadores y gestionar de forma eficiente computación a gran escala en diversos proyectos. En los próximos años, los propósitos se centrarán en conseguir mayores cantidades de datos con tasas de transmisión aún más rápidas y eficientes. 
En 2013, el cambio clave será la cantidad de información que una organización puede extraer de estas  enormes plataformas de análisis. Ahora, el nivel de conocimiento que obtenemos de un proyecto Big Data es mínimo pero con la ayuda del código abierto se prevé que las empresas comenzarán a traducir este análisis en verdadero conocimiento de la empresa.

Se buscan desarrolladores muy cualificados

La comunidad de código abierto es cada vez más compleja: en 2012 la participación y colaboración creció mucho, como también crecieron las expectativas del nivel de innovación y adopción. Es importante que los desarrolladores alcancen un nuevo nivel de madurez y sean capaces de gobernar un infraestructura TI cada vez más complicada así como reasignar recursos cuando ocurran imprevistos.
Además,  la creciente complejidad en la escalabilidad de los entornos de TI actuales obliga a los desarrolladores a trabajar en algoritmos que soportan una carga de trabajo cada vez más fuerte. Si no se poseen las habilidades para desarrollar estos complejos algoritmos, un prometedor proyecto de TI puede convertirse en un gran problema.

Fuente:http://www.ticbeat.com/tecnologias/3-retos-comunidad-linux/

Hay varias cosas que ya están bastante claras cuando se habla de big data. Una es que lo de big no es una licencia poética: realmente los datos a los que tienen que enfrentarse las corporaciones tienen un volumen inmenso. La segunda es que las empresas pueden sacar amplios beneficios apostando por un buen uso de estos datos. Tienen un increíble caudal de información, que les permitirá descubrir prácticamente todo lo que necesitan saber sobre sus potenciales consumidores. Y, sobre todo, no deben caer en el lado oscuro del big data.
¿Qué puede tener de malo algo que todos los analistas están presentando como la next big thing para cambiar el mundo de los negocios? La fiebre de recolecta de datos va a afectar a todos los directivos de todas las empresas. Los CIO tendrán que enfrentarse a una nueva petición de sus jefes: “quiero que lo sepas todo, absolutamente todo, sobre nuestros clientes”. Según un estudio de Gartner realizado en 2011, los CEO de las grandes compañías han situado en su lista de principales objetivos a futuro el conseguir mejores datos y conocer a sus clientes de una forma mejor.

La recolecta de datos recibirá así el pistoletazo de salida y el deseo – y la obligación – de seguir las pautas de la dirección empujará a coleccionar todos los detalles. Absolutamente todos. El volumen de datos a gestionar irá en aumento y ese será el más importante de los riesgos al que las organizaciones tendrán que enfrentarse: morir sepultados en una avalancha de información.
La solución, además de las herramientas, es tener claro qué se quiere y qué se busca con los datos. Acumular por acumular, en una versión digital del síndrome de Diógenes, no tiene ningún sentido. Generará gasto y no reportará beneficios, siendo además una estupenda oportunidad perdida por la falta de una dirección clara. Antes de lanzarse a la aventura del big data, antes de esperar sacar partido del maná en el que se han convertido los datos, hay que pensar qué pueden aportar esos datos a la organización y sobre todo qué se espera de ellos.

Qué aplicaciones tiene el big data

El big data es especialmente interesante para empresas del mundo del consumo, que pueden procesar toda la información social publicada por sus potenciales clientes y aprovecharla al máximo no sólo para crear un perfil robot de sus consumidores sino también para adelantarse a sus peticiones y necesidades. Las financieras pueden prevenir patrones de riesgo cruzando los datos acumulados, diseñar ofertas que cubran de una forma más efectiva las necesidades de sus clientes y sobre todo responder a las obligaciones que las leyes de los diferentes países en los que operan les requieren. Lo mismo sucede en el caso del suministro, que puede utilizar el big data para optimizar su cadena de producción y reducir problemas tanto en fabricación como en distribución o inventario.
Pero no son los únicos campos en los que el big data puede conseguir muchas cosas y sobre todo hacer mucho por la cuenta de resultados de la empresa. El comercio electrónico puede ser mucho más efectista a la hora de presentar sus productos si consigue procesar con eficacia los datos que recibe tanto de aquellos que no compran como de aquellos que abortan el proceso. Se pueden conseguir datos sobre patrones de consumo de muchas maneras. La tarjeta del Club Día, ese gran clásico del supermercado, no es más que la muestra más cercana de lo que se puede hacer para conseguir conocer mejor al cliente. Sin embargo, no sólo supermercados y perfumerías deben y pueden usar estas tarjetas, que tienen más aplicaciones que únicamente ofrecer cupones de descuento para incentivar la venta.
“El análisis y el procesamiento de los datos es, en estos momentos, una de las herramientas que más se están utilizando en las empresas para la elaboración de las campañas de marketing”, explicaba antes de la intervención de su compañía en el pasado OMExpo Cristina Berzal, directora general de affilinet en España. “Sin embargo, es un sector que aún le queda un largo camino de desarrollo para alcanzar los niveles de mercados más maduros como los anglosajones”, añade. Según explican desde affilinet, los datos de los procesos de compra permiten desarrollar estrategias de marketing más efectivas y que generan más beneficios y además se puede optimizar la experiencia de compra online para conseguir mejores resultados.

Fuente:http://bigdata.ticbeat.com/esperar-big-data/

Una de las tendencias tecnológicas que más ruido están haciendo en estos momentos es el llamado ‘Big Data’. Las firmas analistas y las grandes compañías coinciden que será uno de los pilares en torno a los que gire el mercado en los próximos años, junto con la movilidad, el cloud computing y las redes sociales. Y es que precisamente la recogida y  análisis de grandes cantidades de información está ligada a todos estos sectores.
El mercado en general está evolucionando de una forma trepidante gracias a las últimas tendencias tecnológicas. En esto Big Data tiene mucho que decir. Aunque ya existen soluciones en el mercado y cada vez se están popularizando más, su uso está lejos de haberse generalizado, con lo que todavía puede producir un gran impacto.
Entre los usos más destacados que se le pueden dar a Big Data está el de la investigación de mercado. Esto es un proceso que se lleva haciendo durante mucho tiempo, pero la exactitud y la simplicidad que se ha alcanzado ahora es totalmente nueva. “Había industrias que ya disponían de capacidad para analizar grandes cantidades de datos, como la banca. Pero Big Data ha supuesto una revolución al permitir analizar y comprender de forma sencilla, rápida y barata la información generada en industrias como las de gaming, marketing o retail”, apunta Antonio Ovejero, desarrollador que trabaja a diario con Big Data.

Hoy en día existe una gran cantidad de información. Desde Oracle señalan que cada día se generan datos por valor de 1,5 trillones de bytes. Esta inmensidad (o fragmentos de ella) sólo puede ser aprovechada si se selecciona y se procesa adecuadamente. El mundo online en general, con especial protagonismo de las redes sociales, la geolocalización y otras tendencias actuales, produce ingentes cantidades de datos impensables hace unos años.
“Antes un distribuidor de juegos no sabía qué ocurría con sus juegos después de salir del punto de venta. Ahora saben cada cosa que haces en el juego”, explica Ovejero. Ésta es una razón determinante para utilizar Big Data: adquirir un conocimiento exhaustivo de los clientes para mejorar el negocio a partir de esa información.
Cuando una empresa u organización dispone de una gran cantidad de información no estructurada, que no sabe manejar, pese a entender que podría sacar de ella conclusiones valiosas, puede encontrar en Big Data una solución sencilla para aprovechar todos esos datos. “Podrás llevar el Big Data a toda industria que genere datos y tenga necesidad de analizarlos, de extraer conocimiento de muchísimos puntos que de forma inconexa no dicen nada”, concluye Ovejero.

Fuente: http://bigdata.ticbeat.com/cuando-por-que-utilizar-big-data/


Uno de los términos que más están sonando en los últimos meses es el de big data, ya que se ha convertido en una de las tendencias del mercado tecnológico. El análisis y aprovechamiento de grandes bases de datos está siendo adoptado por grandes empresas y startups a la par. Pero, ¿qué es exactamente y para qué sirve? En esta infografía se ofrece una visión general del concepto.
Volumen, velocidad y variedad son los tres términos que utilizada la infografía, elaborada por Asigra, para explicar en qué consiste el big data. La explosión de los datos en los años siguientes, así como el aumento exponencial de la información a la que estamos expuestos los consumidores auguran un buen futuro para las empresas que exploten exitosamente esta tendencia.

Fuente: http://bigdata.ticbeat.com/que-es-big-data-infografia/

big data infografia

miércoles, 19 de diciembre de 2012


 
 
De ser un término que se empleaba únicamente en las publicaciones especializadas, la nube ha dado el salto al ‘saber general’. Todos escuchamos hablar de ella y de sus bondades: si es bueno para las grandes empresas y es bueno para los usuarios generales (¿quién no ha pensado en conservar todas sus fotos familiares en la nube?), ¿no ha de ser bueno también para las pequeñas y medianas empresas?
Las pymes también se pueden lanzar al uso de la nube y conseguir así, por ejemplo, que todos los empleados puedan trabajar en tiempo real y de forma simultánea en el mismo proyecto o que puedan compartir archivos de forma sencilla y rápida. Conseguirán ahorrar tiempo y dinero.
Sin embargo, el primer paso para entrar en la nube puede parecer excesivamente complicado a una pyme no muy familiarizada con la terminología técnica. Porque, cuando se habla de nube, se habla de algo más: hay varios tipos de cloud, con sus ventajas y sus inconvenientes, y la pyme debe decantarse por uno de ellos. ¿Cuál es que el puede ser más ventajoso para una pequeña y mediana empresa?

Tipos de cloud

Cloud pública: Toda la información y las aplicaciones estarán alojadas en un proveedor de servicios, que será quien se encargará del mantenimiento  y la gestión de la infraestructura. Por ello, es importante seleccionar con cuidado en quién se confía: si el centro de datos del proveedor sufre un colapso, el servicio se caerá y con él la nube de la pyme que lo haya contratado.
Decantarse por una nube pública es especialmente útil para ahorrar costes: la pyme cuenta con toda la eficiencia y todas las ventajas del cloud, sin tener que preocuparse por construir su propia infraestructura. La cloud pública es también fácilmente escalable, por lo que en caso de necesitar más recursos sólo hay que pedírselo al proveedor de servicio. Muchas startups emplean nubes públicas, lo que permite una mayor eficiencia de costes y un ritmo de crecimiento rápido. Es lo que hace, por ejemplo, Foursquare.
Privada: En este caso, la información y las aplicaciones almacenadas a nivel local. Para acceder a la nube hay que accedee al servidor interno de la empresa. El propietario de la nube es el responsable absoluto de la misma: desde crear la infraestructura, hasta mantenerla pasando por el básico – pero importante – de garantizar en todo momento la energía.
Para una pequeña empresa puede acarrear demasiados costes que podrían ser innecesarios: Se gasta más electricidad, hay que realizar un mantenimiento del servidor, se debe invertir en una infraestructura potente para crear la nube… El punto claramente posititvo es que se tiene mayor control del servicio, ya que se dispone de la máquina misma. Por ello, algunas veces se ve como un sistema más seguro, aunque esto también puede llegar a ser discutible.  Los centros de datos que dan almacenamiento a las nubes públicas suelen tener grandes medidas de seguridad y la información replicada muchas en múltiples ubicaciones para no dejar a sus clientes en blanco.
Híbrida: Para los casos en los que se disponga de datos sensibles y que se desee tener siempre a mano (a nivel físico incluso), la nube híbrida es una posible solución. La información crítica de la empresa se quedará  así en los servidores internos mientras que aplicaciones y otro tipo de datos menos importantes se alojarán en el centro de datos de un proveedor.
Esta cohabitación es la que explica la esencia de esta nube. El usuario mezcla las capacidades y las ventajas de la nube pública con las de la nube privada. Sus costes son por tanto menores que los de la privada, pero continúan siendo más altos que los de la pública.

¿Qué cloud necesita una pyme?

¿Cuán sensibles son los datos que la empresa necesita albergar en la nube? ¿Cuál es el presupuesto que tiene la pyme para invertir en cloud? Las respuestas a estas dos preguntas serán las que nos permitan determinar qué cloud se necesita.
Si lo más importante es el aspecto económico, un cloud público es la solución ideal. Incluso, aunque no hayas problemas presupuestarios, una nube pública elimina muchos problemas y es de uso muy sencillo. A menos que se empleen datos altamente confidenciales, la pública puede ser una solución perfecta. Si en cambio la empresa cuenta con datos que necesita proteger y cuyo acceso debe ser muy restringido, una privada o una híbrida es la solución más adecuada.
El proveedor cloud español arsys aconseja centrarse en la solución tecnológica para elegir:“Más allá de un tipo de nube concreta, en arsys recomendamos a nuestros clientes que cuenten con la solución IT más adecuada para su negocio. Y eso, sin duda, pasa por la nube. Pero como cada empresa tiene distintos requerimientos de negocio, es imprescindible contar con un proveedor con experiencia y una solución avanzada tecnológicamente y flexible, que se adapte a esos requerimientos.”
“Con esas premisas, hemos desarrollado cloudbuilder, un servicio tan configurable que permite desarrollar distintos niveles de aislamiento, así se garantizan los niveles de servicio, escalabilidad y flexibilidad propios de la Nube Pública y los distintos niveles de aislamiento de hardware que proporcionan las soluciones privadas. De este modo, las empresas no tienen que preguntarse qué Nube elegir para su negocio, sino sencillamente aprovechar las ventajas del Cloud y la tecnología como servicio para acelerar y multiplicar el grado de aprovechamiento de las tecnología en su negocio”, afirman en arsys.
Fuente: http://cloud.ticbeat.com/cual-diferentes-tipos-cloud-conviene-pyme/


 
 
Con un enfoque muy proactivo, Donostia-San Sebastián está trabajando para implantar su futura estrategia de Ciudad Inteligente: la Estrategia 2020, basada en cuatro ejes estratégicos: ciudad conectada, diseñado en DSS, personas y valores y vivir, disfrutar.
Muestra de su esfuerzo para convertirse en un modelo de eficiencia energética es su liderazgo en el  Proyecto STEEP (en el que también participan Bristol y Florencia), el cual ha sido seleccionado por la Comisión Europea para madurar el concepto de smart city. El proyecto se desarrollará dentro de la convocatoria Smart Cities del Séptimo Programa Marco de la Unión Europea.
Esta propuesta fue presentada por Fomento de San Sebastián junto con el departamento de Medio Ambiente del Ayuntamiento y las empresas Acciona y Tecnalia, y pretende crear un Plan de Ciudad inteligente que tendrá en consideración a todos los actores implicados en la cadena de valor energética. Aprobada ahora la iniciativa, a Donostia le corresponden más de 800.000 euros de presupuesto para poner en marcha sus acciones.
El fin es el desarrollo de un Plan de sostenibilidad integrado (tanto a nivel de ciudad como a nivel distrito) que analice de forma específica la eficiencia energética a lo largo de los diferentes actores clave promoviendo así un mayor valor agregado. Euken Sesé, gerente de fomento de Donostia explica que “el objetivo inicial de este proyecto es fundamentalmente realizar estudios de integración tecnológica, integración de las TIC y también de coordinación de servicios municipales”.
A través de la iniciativa se creará una plataforma TIC abierta de intercambio de información y conocimiento que servirá de base para futuros intercambios de información en la implementación y monitorización de planes de ciudad inteligente. Se prevé, además, tanto el desarrollo de una metodología para desarrollar modelos de ciudad basados en sistemas inteligentes, planes de ciudades inteligente y su visualización así como el desarrollo de un plan director para un piloto concreto que arbitrará en torno al Polígono 27, conocido como Vega del Urumea (Urumea Riverside District).

Sostenibilidad económica, medioambiental y social

El departamento de Medio Ambiente, por su parte, tiene en marcha un plan de acción que va en la línea del programa y que viene a demostrar que el trabajo realizado hasta ahora es coherente con los objetivos del programa. En ese sentido, en enero se remitió a la Comisión Europea, el Plan de Acción de Energía Sostenible, en el que se recogen más de 200 acciones a desarrollar en distintos ámbitos. Y es que una de las herramientas en la lucha contra el cambio climático es la eficiencia energética.
La apuesta es alcanzar el objetivo de reducir para el 2020 un 20% el consumo energético, otro 20% la emisión de gases de efecto invernadero, y potenciar un 20% el uso de las energías renovables.
Siguiendo esta línea de trabajo, el Ayuntamiento está llevando a empresas donostiarras a Amsterdam para conocer su modelo energético. La capital holandesa, es el más destacado ejemplo internacional en materia de eficiencia y gestión energética, por lo que con esta iniciativa se están buscando nuevas oportunidades y nichos de negocio para aprender de una de las propuestas europeas más interesantes de smart city.
Esta misión se enmarca dentro de las acciones que Fomento de San Sebastián lleva a cabo para impulsar el Cluster de Energías Renovables y Eficiencia Energética, una concentración de varios agentes que creó a finales del 2008 como estrategia de apoyo a los sectores emergentes de la ciudad como fuente de desarrollo económico.

La quinta ciudad más inteligente de España

Donostia obtuvo el año pasado el quinto puesto en el ranking de las ciudades más inteligentes del país, elaborado por auditoría IDC Analyze the Future.
“Las ciudades inteligentes buscan un desarrollo sostenible y, según la auditoría, son los mejores lugares para vivir y resultan menos caras de gestionar”, ha explicado el Consistorio de San Sebastián, que ha añadido que, en el caso de la capital guipuzcoana, “su éxito se ha debido a su atención en la movilidad y los servicios”.

Fuente: http://innovacion.ticbeat.com/donostia-eficiencia-energetica/

miércoles, 24 de octubre de 2012

Cambios en los accesos a sitios en el nuevo SharePoint 2013
A nivel de experiencia de usuario, SharePoint 2013 viene con algunas novedades que mejoran a la versión predecesora. Una de ellas es la experiencia de usuarios no autorizados a sitios a los que no tienen acceso. En lugar de mostrarse la típica página de “Acceso denegado” se les da la posibilidad de solicitar acceso a dicho sitio:
  • Cuando el usuario intenta acceder a un sitio en el que no tiene acceso, se muestra una página en la que puede solicitar acceso explicando el motivo por el que solicita acceso. Una vez que se pulsa “Enviar solicitud”, se le notifica al administrador de la colección de sitios por correo electrónico y se registra en la lista de solicitudes de acceso.
  • En la misma página se muestra una barra indicando que la solicitud está en espera de aprobación y la página muestra el mensaje enviado en la solicitud.
  • Nos validamos en el sitio con un usuario administrador y nos vamos a la página de configuración. Bajo la sección “Usuarios y personas”, pulsamos sobre el enlace “Solicitudes de acceso a invitaciones”.
image image image
  • A continuación accedemos a la página “Solicitudes de acceso” dónde vemos el listado de personas (o usuarios) que han solicitado acceso al sitio.
  • A través del menú contextual de un usuario, podemos aprobar o rechazar su solicitud.
  • Cualquiera de las dos acciones hace que el usuario desaparezca de la lista de solicitudes.
image image image
  • Si rechazamos una solicitud e intentamos acceder de nuevo al sitio con el mismo usuario, veremos que en la página de solicitud se indica que se ha rechazado su petición de acceso.
  • Por supuesto, podemos volver a solicitar de nuevo acceso al sitio.



image




image 


jueves, 18 de octubre de 2012


Apple quiere los centros de datos más ecológicos del mundo

apple
“Estamos comprometidos a construir los centros de datos más medioambientalmente responsables de todo el mundo”, ha declarado la portavoz de Apple Kristin Huguet. Estas palabras han sido espoleadas por la presentación de un informe de Greenpeace, en el que señala que la compañía debería ser más transparente a la hora de difundir lo que rodea a la actividad de sus centros de datos.
‘A clean energy road map for Apple: how Apple can meet its coal-free goal’ es el extenso título que Greenpeace ha dado a su informe, enfocado en la firma de Cupertino y en las formas que ésta tiene para mejorar sus instalaciones desde el punto de vista ecológico.
Los retos que se ha propuesto Apple en materia medioambiental pasan por eliminar completamente el carbón de sus centros de datos como fuente de energía, apostando por las renovables. “Nuestros centros de datos de Carolina del Norte y California no utilizarán carbón en febrero de 2013 y nuestros centros de datos más nuevos, en Oregon y Nevada, estarán diseñados para ajustarnos a ese estándar desde el día uno”, ha recalcado Kristin Huguet, tal y como recoge Forbes.
Greenpeace ha destacado que Apple no ha dado suficiente información para saber si sus objetivos son factibles. “Apple tiene el potencial de hacer una nueva marca con su compromiso de un iCloud libre de carbón, pero sus planes para alcanzar esta meta son mucho hablar y poco echar a andar”, ha criticado Gary Cook, analista de información tecnológica de Greenpeace.
El centro de datos de Apple en Carolina del Norte obtendrá un 60% de su energía de paneles solares a finales de año, según prevé la compañía. Está previsto que el 40% restante provenga también de fuentes renovables, como la eólica. Para las instalaciones en California se está buscando la forma de comprar la suficiente energía renovable como para cubrir las necesidades.
Greenpeace publicó recientemente una lista con las principales compañías que utilizan cloud computing, evaluando la eficiencia y el carácter verde de sus sistemas. Apple no salió muy bien parada en la clasificación, donde Yahoo y Dell obtuvieron puntuaciones altas.
Apple necesita sus centros de datos para dar servicio a los usuarios de iTunes y, desde que lanzó iCloud el pasado año, a todos aquellos que han activado el uso de esta plataforma desde sus dispositivos iOS o Mac. En estos momentos está pendiente de aumentar los recursos que ya tiene con unas nuevas instalaciones en Oregon.

La escalada hacia la nube

nube
El cloud computing no es un concepto radicalmente nuevo. El concepto de una nube para explicar qué era Internet ha existido casi desde los mismos orígenes de la red, sin embargo, la verdadera eclosión de la tecnología cloud ha tenido lugar en los últimos años, debido a la gran penetración de las conexiones de banda ancha, a los cambios de hábito del consumidor y la creciente aparición de dispositivos que permiten utilizar esos recursos desde cualquier sitio y lugar (móviles, tablets…) y a un cambio radical en la forma de entender la tecnología como servicio.
Con el modelo tecnológico actual, las empresas pueden contar con la tecnología que necesitan cuando la necesitan, tal y como quieren sus usuarios, pero sin inversiones iniciales en servidores o sistemas de conectividad, con un despliegue que se realiza en minutos y un sistema que permite contar y pagar exclusivamente por la tecnología que se necesita.
Internet ha revolucionado en los últimos quince años todos los sectores de negocio, y ofrece una inmediatez sin límites que ha supuesto que las empresas se encuentren en una vorágine de información y evolución constante. La supervivencia de las empresas ahora depende en gran medida de herramientas que les ayuden a anticiparse. En este nuevo escenario, el cloud es un acelerador de muchas de las decisiones estratégicas de negocio que en ocasiones se ralentizan por motivos tecnológicos y de coste, entre otros. Esto se debe a que el cloud  hosting es la manera más eficiente de desarrollar sus nuevos proyectos TIC.
A pesar del rápido crecimiento que ha experimentado el cloud en los últimos años, es imposible determinar hasta dónde será capaz de llegar porque su límite dependerá de las necesidades de las organizaciones y de sus necesidades tecnológicas y de almacenamiento, que son cada vez mayores. Se estima que en 2014, el 80% del software en el mundo estará en la nube.
De lo que no cabe duda es que la empresa que no utilice cloud en tres años tendrá dificultades para garantizar su competitividad. Hoy en día no tiene ningún sentido que las organizaciones, cualquiera que sea su sector o tamaño, realicen grandes inversiones en plataformas con sistemas operativos o programas, pues requieren un gran coste inicial y mucho tiempo en la formación de los técnicos y administradores.

Fuente: http://cloud.ticbeat.com/escalada-hacia-nube/

miércoles, 17 de octubre de 2012

SharePoint 2013: Novedades en autenticación!
A nivel de autenticación, SharePoint 2013 también incorpora novedades en cuánto a que el modo de autenticación por defecto es “Claims” (en SharePoint 2013 podíamos elegir entre Windows Legacy y Claims al crear aplicaciones web), aunque se sigue soportando autenticación clásica (Windows Legacy) si bien su uso sólo es posible a través de PowerShell (ya no se puede a través de la interfaz de usuario). De hecho, el modo clásico se considera “descartado” en SharePoint 2013,
image
Si estamos pensando en migrar a futuro de SharePoint 2010 a SharePoint 2013, hay que recordar que podemos convertir fácilmente aplicaciones web con autenticación clásica a autenticación Windows mediante PowerShell en nuestro ambiente de SharePoint 2010:
   1: $App = get-spwebapplication –Identity http://...
   2: $app.useclaimsauthentication = “True
   3: $app.Update() 
Si aún así, migramos las aplicaciones web con autenticación clásica a SharePoint 2013 no hay problema en convertirlas a claims ejecutando en este caso el comando Convert-SPWebApplication: 

1: Convert-SPWebApplication -Identity "http://yourWebapp" -To Claims –RetainPermissions [-Force]
 

Fuete: http://geeks.ms/blogs/ciin/archive/2012/08/02/sharepoint-2013-novedades-en-autenticaci-243-n.aspx

No saber la respuesta está bien - Especialmente para el analista de negocio  

Me pareció un interesante recorte a partir de que ahora voy a estar ligado a proyectos de gran magnitud y estos puntos que analiza son muy prácticos y cotidianos.

En los proyectos donde vamos a utilizar Sharepoint , como en otros proyecto sin Sharepoint, es fundamental la tarea del analista de negocios.

Muchas veces es necesario que conozca del negocio que se está relevando , pero esto no es siempre así en todos los casos. Por eso acá van algunos consejos para esos casos.
Vos, analista de negocio has sido asignado a un proyecto nuevo o en ejecución . Empezaste a trabajar en su kick off inicial preparándote, leyendo el alcance, revisando el documento de schedule y convocando tus primeras reuniones con los diferentes stakeholders del proyecto. En el medio de la reunión mientras estás escuchando atentamente como es el proceso detallado para la transferencia de una política de un organismo a otro, te encontras tomando notas y más notas. De pronto te das cuenta que las notas empiezan a perder relación y el interlocutor continúa hablando y hablando!.
Aunque tus notas son palabra por palabra lo que están diciendo, por temor a parecer tonto o que el equipo no pierda credibilidad en tu tarea,lo mejor es seguir escribiendo, mientras intentas desesperadamente entender lo que se está diciendo.
Cuando este es tu primer proyecto, esto es lo que le suele suceder a un analista de negocios.
En muchas reuniones donde participe vi esto muchas veces.
Para estos casos, existen este tipo consejos para manejar esas situaciones
No importa que tan experimentado sea un analista de negocios, una situación como esta va a volver a suceder. Es muy raro que un analista de negocio -sin importar su experiencia - pueda empezar cada proyecto con todo el conocimiento y tener respuestas para todos los escenarios.
Cuando estas perdido en la reunión:
1) Trata de no mirar a los ojos de otros miembros de tu equipo del proyecto como buscando complicidad en lo que no se entiende.
2) Intentar encontrarle sentido a lo que se dice
3) Sé capaz de tomar la información relevada - aunque no tenga sentido - y producir requerimientos relevantes a lo escuchado.
Hay cuatro sencillos trucos para poder salir del aprieto de no saber el tema y aún así obtener algo de la reunión.
· 1) Saber que "No estoy familiarizado con los detalles". Bajo mis roles, trabajo con muchos clientes. Y la mayoría de las veces, sé muy poco sobre sus procesos internos, normas, procedimientos, políticas, etc., y mucho menos como lo plasmaron en sus sistemas y/o aplicaciones. Pero eso no me impide rápidamente empezar a conocerlos. Podes pedir acceso al sitio de Normas y procedimientos por ejemplo, y empezar a conocer más de lo que se habla en la reunión. Cuando estoy con un cliente o un proyecto nuevo, aunque tenga muchas habilidades, a veces son inútiles a menos que se sepa cómo utilizarlas en un proyecto. Cuando me encuentro en un nuevo proyecto que conozco muy poco, tengo que preguntar ¿Podría explicar esto con más detalle? ¿Le importaría explicarlo de una manera más fácil de entender? La razón de esto es para que se pueda entender el tema en un nivel superior con menos detalle antes de empezar a ver temas como el workflow del proceso en particular o la funcionalidad de la interfaz de usuario o lo que sea que se esté tratando de entender. En otras palabras, estamos admitiendo abiertamente que no estamos familiarizados con los detalles. Ser abierto y honesto al preguntar para que se entienda, fortalecerá aún más la relación de confianza con el equipo del proyecto y los stakeholders del negocio. Manejarse de esta manera es poner en claro que todavía no sé de lo que se esta hablando pero pronto voy a estar al tanto de todos los detalles.
· 2) Buscar los puntos de acción - aunque no seas un Analista de negocios - y hacete carne de ellos, si es que te corresponde. Otro tip interesante es hacer seguimiento de los puntos de acción que salen de una reunión, incluso si no te involucran directamente. Aprovecha la oportunidad en algún nuevo proyecto para aprender tanto como puedas. No importa de donde venga el conocimiento o contenido, simplemente sumergite en el tema del proyecto. No hace falta decir que primero debes atender tus responsabilidades, pero si tenés la oportunidad de asistir a una reunión ; mejor , por ejemplo a revisar un documento de diseño o sentarse con los stakeholders , o incluso convocar reuniones informales para apuntalar tu conocimiento. A pesar de que algunos de los puntos de acción que no están enteramente relacionados con tu trabajo en el proyecto, te van ayudar a construir tu conocimiento de fondo que será muy útil más adelante en el proyecto.
3) Creá una asociación con el Stakeholder del negocio (o donde esté el conocimiento). Aunque es importante para el analista tener una sociedad sana con el Manager del Proyecto, es igual de importante tener una sociedad sana y abierta con los stakeholders del negocio. Después de todo ellos van a ser a quienes debemos satisfacer con el proyecto. Muchas veces esta relación se pasa por alto, o se pierde valor. Esto conduce a limitar la comunicación o a romperla en el peor de los casos . Si queres tener éxito como analista , tenes que valorar la asociación con los stakeholders. Te va a ser más fácil obtener información vital con rapidez cuando tengas una alianza saludable, fuerte y abierta.
Probablemente el truco más difícil, es ser humilde y pedir. Este truco es simple de entender , pero también el más difícil de llevar a cabo. Es bueno que al principio de un nuevo proyecto, seas cauteloso de exponer tu punto débil al resto del equipo , para que tus colegas no sepan que tienen una vulnerabilidad en torno a la plena comprensión del tema. Sin embargo, si no hablas ahora será demasiado tarde. Debido a que el papel de un analista es tan vital para el éxito global de un proyecto, nunca se debe dejar pasar la oportunidad al principio para pedir a los stakeholders para aclarar sus comentarios si no los entendes. Podría ser comentarios sobre el alcance, , los fuera de alcance , las necesidades de negocio, requisitos, especificaciones funcionales, diagramas, o cualquier cosa relacionada con el proyecto. El punto es, no importa cual sea la consulta, si no son muy comprensibles, les pedimos que aclaren la cuestión. Muchas veces la fase de requisitos de un proyecto se trata de ejecutar rápidamente, por lo que es importante para establecer las expectativas de nivel de comprensión de la materia al principio y con el fin de evitar ser olvidado. Y te preocupa la pérdida de credibilidad en el inicio de un proyecto por no saber el tema en detalle, imagínate la cantidad de credibilidad que se pierde cuando no entendes nada después de tres semanas de sesiones de análisis o diseño. Te aseguro que participe en proyectos donde recibió documentación de los analistas que me sirvió muy poco para entender cómo construir la aplicación.
Muchas veces, he visto como buenos analistas pierden la credibilidad con un equipo de proyecto, ya que no están dispuestos a admitir que no sabe algo. Ante el temor de ser ridiculizados, el analista seguirá adelante, con lo que saben del tema, pero cuando se llega a la hora de la verdad en un proyecto y no son tan bien versados, entonces es cuando los requisitos están en riesgo de ser incompletos o incorrectos. La próxima vez que estés en una reunión del proyecto o reuniendo requisitos no sabes la respuesta a una pregunta o no sabes cómo funciona un proceso de negocio, proba utilizar uno de estos consejos para ayudarte a obtener una mejor comprensión del tema. Tenes que ser lo suficientemente audaz para dejar el miedo de perder credibilidad y hacer lo necesario para tener una comprensión clara y concisa del tema en cuestión. Al hacer esto, te colocaras en la posición para producir requisitos sólidos, reales, y precisos.
Llegar a obtener estos resultados es muy importante para la siguientes etapas del proyecto.
Recorda que mucha gente se va a basar en esos requerimientos y que el éxito del proyecto depende mucho de vos.

Fuente:  http://blogsfest.blogspot.com.ar/2012/09/no-saber-la-respuesta-esta-bien.html

martes, 16 de octubre de 2012

Configurar Reporting Services 2012 SharePoint 2013

Aprovechando el post anterior dónde se menciona la novedad de que SSRS se incorpora como un servicio en SP2013 entonces muestro como configurarlo.

Requerimiento previo:
SQL Server 2012 SP1
SharePoint 2013

SSRS se instala como un servicio de SharePoint 2013 en el servidor de aplicaciones.
Instalar las siguientes features de SQL Server 2012


image 
Se seleccionan las dos componentes de SSRS que permiten integrarlo a SharePoint como un servicio y las herramientas de pruebas de conectividad y desarrollo de proyectos BI.

Finalizada la instalación se procede a la configuración del servicio en SharePoint 2013.

Desde Central Administration ir a Manage Service applications y desde el menú nwe seleccionar SQL Server Reporting Services Service Application.

image

Se abre la siguiente pantalla y se deben completar los datos que se requiere, nombre del servicio, AppPool, cuenta con la corre el servicio, base datos para el servicio de SSRS.
image

Una vez creados el servicio en cuestión y el proxy, seleccionar estos para acceder a la pantalla de administración:
image

En Key Management se puede hacer un backup de la clave de encriptación.
En E-mail Setting se configura el email server si se desea habilitar el envio de reportes por email.

En System Settings se configura la ejecución del servicio.

La siguiente etapa es habilitar SSRS en el site collection.

Cabe aclarar que si hay varios servicios ejecutandose en el servidor se puede producir un error de memoria, significaría que es paca la memoria disponible.  El mínimo para la instalación es 4 GB pero para que corran todos los servicios es necesario 8GB.

http://whitepages.unlimitedviz.com/2012/07/setting-up-reporting-services-2012-with-sharepoint-2013/


SharePoint 2013: Novedades en Business Intelligence!
Veremos algunas de las novedades específicas que tenemos disponibles a nivel de BI en la nueva versión de la plataforma de productividad de Microsoft.

Nuevo Centro de Inteligencia Empresarial
Nueva plantilla de centro de inteligencia empresarial, más simple de usar y con un nuevo Look & Feel.
image image

Reporting Services
Las novedades a nivel de SQL Server Reporting Services (SSRS) integrado con SharePoint 2013 son las ya conocidas para la integración de SSRS 2012 con SharePoint 2010 por lo que dejo la referencia a este articulo: http://geeks.ms/blogs/ciin/archive/2011/07/13/sql-server-denali-novedades-en-reporting-services-y-tambi-233-n-en-la-integraci-243-n-con-sharepoint.aspx. Quizás la mayor novedad es que PowerView se incorpora a Excel 2013 y podemos crear informes de este tipo no solo en SharePoint 2013, sino también en el cliente.

PerformancePoint Services
Así es, PerformancePoint sigue estando en SharePoint 2013 a pesar de qué había ciertas dudas al respecto. Las novedades que tendremos son las siguientes:
  • La primera y más importante: podemos hacer de forma sencilla el upgrade de artefactos de PerformancePoint de SharePoint 2010 a SharePoint 2013. La migración se puede hacer de forma individual (artefacto por artefacto) o de forma masiva mediante comandos PowerShell.
  • Mejoras en filtros y búsqueda de filtros, novedades que aparecieron con el SP1 de SharePoint 2010 y que se incorporan de serie en SharePoint 2013:
    http://blogs.msdn.com/b/sharepoint_sp/archive/2011/12/16/filtros-en-cascada-en-performancepoint-services.aspx
  • Soporte para visualización de paneles en iPad y mediante Safari.
  • Soporte Analysis Services Effective User, que elimina la necesidad de configurar delegación de Kerberos para autenticación de usuarios en fuentes de datos de SSAS.
Excel Services & Excel 2013
Aparte de incorporarse muchas de las mejoras propias de Excel 2013, tendremos novedades como:
  • Mejoras en la exploración y análisis de datos en libros publicados en Excel Services a través de proporcionar sugerencias para visualizar información adicional o realizar Drill Down To.
  • A nivel de visualización de datos de SharePoint, es muy fácil cambiar que datos se van a mostrar en filas, columnas, valores y filtros en informes de tipo PivotTable y PivotChart.
  • Soporte de controles Timeline de forma similar al cliente Excel.
  • Soporte de miembros calculados y medidas creadas en Excel.
  • A nivel de IT tenemos novedades como
    • Facilitar el descubrimiento de documentos Excel creados por los usuarios en SharePoint 2013.
    • Poder comparar estos documentos para obtener análisis del tipo de interactividad realizada por los usuarios.


A nivel del cliente Excel, se mejoran notablemente las capacidades para  analizar, visualizar y explorar datos. Características que se incluyen en el nuevo Excel BI son las siguientes:
  • In-Memory BI Engine (IMBI), que permite analizar de forma muy rápida millones de filas de datos de forma integrada en Excel.
  • Add-In de PowerView para Excel, de manera que además de poder crear informes de PowerView en SharePoint, los podremos crear desde el cliente de Excel. Estos informes se basan en un BI Semantic Model y la exploración y análisis de datos se basa en el IMBI.
  • Desacoplamiento de PivotCharts y PivotTables de forma que podemos crear gráficos de pivote sin tener que crear una PivotTable asociada.
  • Análisis de tendencia, podemos realizar análisis de tendencia desde celdas de PivotTable que vengan de datos OLAP como cubos de SQL Server Analysis Servies o modelos de datos de PowerPivot.
Visio Services
En este caso el primer cambio que nos encontramos tiene que ver con la extensión de archivos Visio que se pueden publicar en Visio Services: .vdx para diagramas creados con Visio 2013 que introduce renderizado nativo sin necesidad de tener que publicar el diagrama Visio y .vdw para diagramas creados con Visio 2010. Otras novedades que nos encontraremos son:
  • A nivel de fuentes de datos soportadas, se añaden listas externas y datos de BD’s SQL Azure.
  • A nivel de configuración y administración:
    • Aparece un nuevo parámetro de configuración qué es el tamaño máximo de cache que puede llegar hasta 5.120 MB.
    • Se añaden reglas al analizador de salud para incluir este parámetro.
  • A nivel de diagramas Visio, podemos añadir múltiples comentarios en los mismos de forma colaborativa.
Access Services
A nivel de Access Services, se rompe con respecto a las características de los servicios de Access en SharePoint 2010 (qué por compatibilidad siguen estando disponibles en SharePoint 2013) y se incorporan los siguientes cambios:
  • Para empezar, el modelo de datos y los datos en sí no residen en SharePoint, sino en una BD que puede estar en nuestro SQL Server corporativo o bien en SQL Azure. Las tablas de la aplicación Access se convierten a tablas de SQL Server.
  • Una aplicación Access que se vaya a publicar en SharePoint 2013 a través de los servicios de Access es una App en sí misma de SharePoint 2013.
  • La interfaz de una aplicación publicada en los servicios de Access es puramente web, lo que significa que estamos hablando de formularios HTML en el lado del cliente.
  • A nivel de lógica de negocio, las macros que creemos en nuestras aplicaciones se convierten en triggers de SQL.
  • Las consultas específicas se convierten en vistas.
La arquitectura de integración de aplicaciones Access en los Servicios de Access es la siguiente:
Access 2013 architecture
Y este es un resumen de las principales novedades en BI que vamos a tener en SharePoint 2013.
Referencias
Published 26/7/2012 8:02 por Juan Carlos González Martín, Blog del CIIN


SharePoint 2013: ¿Qué necesito para disponer de las nuevas capacidades de BI?
Si queremos ver en funcionamiento las últimas novedades a nivel de BI que se incorporan en SharePoint 2013 necesitaremos utilizar la Community Technology Preview (CTP 3) del SP1 de SQL Server 2012. En concreto, con esta CTP podremos:
  • Configurar la integración de SQL Server Reporting Services (SSRS) con SharePoint 2013 de la misma forma qué se hacía al integrar SSRS 2012 con SharePoint 2010 (os recuerdo que SSRS pasa a ser una aplicación de servicio más).
  • Probar el nuevo y re-diseñado PowerPivot para SharePoint. Aquí tendremos novedades como mejoras en el soporte de PowerView a nivel de nuevas visualizaciones (Bing Maps, gráficos de tarta), nuevas opciones de formato como fondos y temas, mejor soporte para imágenes y Urls, etc.
    • Power View en Reporting Services.
  • A nivel de Excel Services, nos aprovecharemos de muchas de las mejoras que se incorporan en Excel 2013.
  • Pensando en Excel 2013 y en las Office Web Applications, tendremos grandes novedades a nivel de desarrollo ya que podremos crear extensiones tanto para el cliente de escritorio como para su homólogo web.
Referencias:
SharePoint-2013-Logo_3358DACE
Published 25/7/2012 12:13 por Juan Carlos González Martín, Blog del CIIN
 
SharePoint 2013 - Diagrama de topología física






SharePoint 2013 - Diagrama de la topologái de servicios

http://technet.microsoft.com/es-es/library/cc263199%28v=office.15%29.aspx

martes, 14 de agosto de 2012

Alternativa para otorgar permisos en BCS

Abrimos una consola de PowerShell y corremos los siguientes comandos:
$bcsServiceApp = Get-SPServiceApplication | where {$_ -match "Business Data Connectivity Service"}
$bcsServiceApp.RevertToSelfAllowed = $true;
$bcsServiceApp.Update();
 
Luego en SPD configuramos el tipo de autenticación en el tipo de contenido externo (ECT)

Migrar listas con contenido desde MOSS a SharePoint 2010

Ir a la lista de sharepoint que se desea migrar y desde la configuración de lista buscar la opción “Save document library as template” o Guardar lista como plantilla:

Aparecerá la siguiente pantalla que permiste guardar la lista como plantilla con extención .stp. En ella, recordar CHEQUEAR la opción de incluir contenido, de esta forma al migrar la lista a SP2010 la migramos con el contenido completo.

Al archivo generado, digamos, “migracion.stp”, cambiarle la extensión por “.cab”. El archivo .stp no es más que un archovo .cab con extención cambiada. Al volverlo a .cab éste se convierte en un archivo comprimido que se puede abrir con winrar para acceder al contenido del mismo. El archivo se guarda en http://sitesharepoint/_catalog/it, desde ahí lo obtenemos para renombrarlo:



Ahora podemos extraer el contenido del archivo con, por ejemplo Winrar:


Una vez descomprimido, ya podemos editar el archivo extraido con, por ejemplo, el Notepad++. La edición va a permitir cambiar la versión del archivo y de la lista para que esta sea reconocida por SP2010, de otra forma no se puede migrar:

<ProductVersion>4</ProductVersion>

<Language>1033</Language>

<TemplateID>1</TemplateID>

<Configuration>0</Configuration>


Donde decía
<ProductVersion>3</ProductVersion>
Lo modificamos y ponemos
<ProductVersion>4</ProductVersion>

Chequear que la versiones de Language sean coincidentes, si SP2007 está en ingles va a aparecer 1033 en el archivo, si está en espeañol va a aparecer 3022. Cambiarlo por la versión de idioma de SP2010 para que sean coincidentes.
<Language>1033</Language>
Y en configuración lo mismo, para SP2010 agregar el valor 0 dónde decía 1:
<Configuration>0</Configuration>
y lo guardamos.

Bueno, ya tenemos casi todo hecho. El siguiente paso es volver a crear el .cab, lo hacemos con la utilidad del S.O. makecab para ello:


Después lo renombramos a la extensión .stp:


Y ya podemos irnos a SP2010 a importar la plantilla, para ello entramos en las opciones del Site sobre el que queremos levantar la lista:


Y vamos a la opción List templates o plantillas de lista:


Y, en la opción del Ribbon “Documents”, seleccionamos a través de Upload Document, el archivo migracion.stp.
De esta forma ya aparece en la lista y no hay más que ir a la opción de crear una nueva lista, buscar el template de lista recientemente creado y la genera con el contenido que se migró.