miércoles, julio 27, 2011

Reconocimiento facial en móviles y redes sociales: ¿The next big thing?


Por momentos, Apple, Facebook y Google (como dice la canción, tan iguales y tan diferentes) parecen coincidir en la implementación de ciertas tecnologías. Aunque viéndolo bien, quizá no se trate de una coincidencia.

Lo sabemos. Es la guerra. Y en este momento el backstage, tras bambalinas, los "war rooms" están en ebullición. En el diabólico mundo de los PR releases, es demasiado evidente.

El primero en saltar a la vista es Facebook con una controversia que tiene que ver con la posibilidad de autoetiquetado (autotags?) en rostros y la posibilidad de opt-out de esta futura "feature" habilitada con tecnología de reconocimiento facial (uh, oh).

Luego Google compra una compañía dedicada precisamente a esto.

Y ahora Apple revela planes encaminados a llevar el reconocimiento facial "al siguiente nivel". La compañía adquirió el año pasado a la firma sueca Polar Rose, responsable de "Recognizr" (originalmente desarrollado para Android OS). Apple trabaja actualmente en la incorporación de esta tecnología y algoritmos de tracking en iOS 5.

It gives me the chills. Sort of.

La compañía adquirida por Google, pittpatt (Pittsburgh Pattern Recognition) se deriva de un proyecto de la Universidad Carnegie Mellon, en el cual se desarrolla tecnología de reconocimiento facial capaz de hacer "match" de personas entre fotografías y/o videos.

Según Google, había detenido la adición de reconocimiento facial a sus productos debido a preocupaciones sobre privacidad. I guess they just dont care anymore?

Añada la posibilidad de FR en Win 8.

Well, thats creepy.

¡Hasta mañana!

Tips a leia.y2k@gmail.com

martes, julio 26, 2011

Ci(nerd)filia, o cómo ser feliz en una sala de cine


No tiene sentido negarlo. ¿Cómo no amar una película en que hay dragones, varitas mágicas, reliquias, conjuros y una escuela de hechicería como premisa? O nombres como Lord Voldemort. O centinelas.

Éramos los únicos en la sala. Dios bendiga las funciones de las 16:00 horas en martes. Y era la sala 5 XD en el recién remodelado Cinemark Metrocento. Es decir, casi, el cielo de un ciné(rd)filo.

Como bien alertaron @carloslaso e @ybarrarubio (¡me van a querer cobrar!) en Twitter, la nueva sala XD (Extreme Digital Cinema) es una maravilla en lo que respecta al audio.

Los detalles de la configuración acústica los da Cinemark: sonido digital de última generación reproducido por 30 bocinas JBL distribuidas en toda la sala incluyendo 6 bocinas "Subwofer" de medio metro cada una y 16 bocinas "Surround".

La proyección está a cargo del proyector digital Barco DP 2,000 con un potencial de 18,000 lúmenes, capaz de reproducir el sistema Real D XL 3D (traducción, super awesome).

El punto es que, no importa su nivel de ciné(rd)filo, vale la pena "estrenar" esta sala si es que aún no lo ha hecho (el costo por persona es de 70 pesos). Vaya y sea feliz.

Mientras tanto, repase mentalmente los momentos "Kodak" vividos alegremente en una sala de cine repleta de nerds. El inicio de cualquiera de las películas de Star Wars. La fila para el estreno. El maratón de LOTR cuando Peter Jackson ganó el Óscar. Los aplausos al ver que (insert cult movie here) estaba subtitulada y no doblada. Marvin. R2. C3PO.

Si ha leído hasta aquí, usted es un completo nerd. Do yourself a favor. Go XD. Forever.


¡Hasta mañana!

tips a leia.y2k@gmail.com

lunes, julio 25, 2011

Blackberry: ¿El principio del fin?


Research in Motion (RIM), el fabricante de Blackberry, anunció hoy el despido de 2 mil empleados, alrededor del 11% de su staff global.

El recorte es el resultado de un esfuerzo por cortar costos y ajustarse a una nueva realidad de mercado en la que Apple y Google están acaparando las ventas.

La opinión de los analistas al respecto está dividida. Existen dudas sobre la posibilidad de que dichas medidas financieras ayuden a la compañía candiense a retomar una posición competitiva en el mercado.

Los días en que la blackberry dominaba el mercado de los dispositivos móviles están cada vez más lejos. Y es que las opciones se han diversificado, y a reserva de mejor opinión, Blackberry se "durmió en sus laureles" aunque eventualmente haya liberado (too late, perhaps?) un dispositivo como la Torch o la Playbook, aunque conozco a más de uno que no les haría el feo.

Alguien me preguntaba que si cuánto tiempo le daba a la compañía. Yo dije que no más de cuatro años, antes de ser absorbida o vendida.

Habrá cambios en la cúpula directiva, pero mientras tanto, comienzan a circular los rumores del anuncio de nuevos dispositivos equipados con Blackberry 7 el día de mañana.

Habrá que estar pendientes mañana de la cuenta de @Blackberry y del hashtag #BB7FanNight...or not. Lo cierto es que la firma ha caído de la gracia de un gran número de usuarios hardcore, que han terminado por detestarla o bien simplemente optaron por aventurarse en el mundo iOS y/Android.

Veremos que pasa. Por lo pronto... ¡hasta mañana!

Tips a leia.y2k@gmail.com

viernes, julio 22, 2011

Entonces... ¿Qué es la nube?

Dice mi estimado Federico Cirett que diga que es magia y me deje de complicaciones (LOL). Pero qué le voy a hacer, soy famosa por mi obstinación maníaca, enfermiza y obsesiva de querer analizar y explicar todo.

Veamos. El término original en inglés utilizado para explicar este concepto es "cloud computing". El mismo Federico, candidato a doctor en ciencias computacionales por la Universidad de Arizona lo resume de manera muy efectiva: almacenamiento, procesamiento, distribución, sincronización... ¡magia!

Aunque me gusta la idea de manejar el tema al estilo chamánico, creo que es preferible recurrir a Wikipedia (¿qué? ¡suele ser un excelente punto de partida!): Cloud Computing* es un paradigma que permite ofrecer servicios de computación a través de Internet.

Dentro de este paradigma, todo lo que puede ofrecer un sistema informático se ofrece como servicio, de modo que los usuarios puedan acceder a los servicios disponibles "en la nube".

¿Ah verdad? De manera que si usted tiene todos sus documentos de Word almacenados en su carpeta de trabajo y su disco duro "truena", pues sus documentos ya valieron, a menos que tenga respaldo. O si quiere llevarlos consigo debe llevarse la laptop, mandárselos por correo o copiarlos a una memoria USB. En cambio, si trabaja "en la nube" (por ejemplo, en google docs, sus documentos estarán allí cada vez que acceda a Internet, no importa desde dónde o desde qué computadora o dispositivo.

Obviamente, el tema es muchísimo más complejo, pero desde la perspectiva del usuario final, hablar de "la nube" es hablar de eso: La información se almacena de manera permanente en servidores de Internet y se envía a cachés temporales de cliente.

Servicios como Dropbox, por ejemplo, permiten subir, sincronizar y compartir archivos y documentos en "la nube". Así es como se usa el término coloquialmente.

Claro, tiene sus riesgos. Si la nube es el único lugar en que está almacenada su información y algo sucede con dichos servidores, entonces...kaboom. Sin embargo, se trata de una posibilidad remota.

Y fíjese, luego dicen que Wikipedia no es útil:

El concepto de la computación en la nube empezó en proveedores de servicio de Internet a gran escala, como Google, Amazon AWS y otros que construyeron su propia infraestructura. De entre todos ellos emergió una arquitectura: un sistema de recursos distribuidos horizontalmente, introducidos como servicios virtuales de TI escalados masivamente y manejados como recursos configurados y mancomunados de manera continua. Este modelo de arquitectura fue inmortalizado por George Gilder en su artículo de octubre 2006 en la revista Wired titulado Las fábricas de información. Las granjas de servidores, sobre las que escribió Gilder, eran similares en su arquitectura al procesamiento “grid” (red, parrilla), pero mientras que las redes se utilizan para aplicaciones de procesamiento técnico débilmente acoplados (loosely coupled, un sistema compuesto de subsistemas con cierta autonomía de acción, que mantienen una interrelación continua entre ellos), este nuevo modelo de nube se estaba aplicando a los servicios de Internet.

Existen varias capas y tipos dentro de este paradigma, pero su descripción exhaustiva va más allá del objetivo de este humilde post, el de explicar a los científicos del Colson qué es la nube.

Mejor debí haber dicho que era magia.

Hasta mañana.

Tips a leia.y2k@gmail.com

*Al español lo traducen como "cómputo en nube". Hate.

jueves, julio 21, 2011

La nube y los científicos del Colson


Me dijeron que balbuceaba un poco. Que me vía nerviosa. Estaba tratando de exponer mis avances de tesis en el II Coloquio de Maestría y Posgrado en el Colegio de Sonora. Frente a mi estaban mis dos lectores y mi asesor de tesis. Más allá, algunos compañeros y curiosos.

Conforme trancurrían los escasos 15 minutos de que disponía para exponer, mi cabeza estaba en ebullición, tratando de explicar de la mejor manera posible conceptos con los que los académicos no parecían estar demasiado familiarizados, case in point, las diversas redes sociales online y su modus operandi.

Capté su atención cuando hablé de las políticas de la Secretaría de Economía y Prosoft y los parques tecnológicos. Cuando hablé de la composición global de los mercados de desarrollo de software, e incluso al abordar brevemente la teoría de la inteligencia colectiva.

Pero en el momento en el que abrí la boca para mencionar (fail?) que el desarrollo de software actualmente estaba evolucionando hacia la nube, supe que era mejor cambiar de lámina y concretarme a detallar el capítulo metodológico.

Alguien me contó después que pensó exactamente lo mismo. Como si en ese momento a los maestros se les hubiera puesto la mente en blanco. Me pregunto si realmente habrá sido así, o era solamente nuestra percepción. Sin embargo, hace unos días un muy querido primo se jactaba de su nuevo combo de un Motorola Atrix/dock multimedia, y yo, después de algunas pruebas express, dí mi veredicto: "Está muy bien, pero no podría trabajar en un equipo con sólo el Android OS, ¿no es demasiado dependiente de la nube?"

Ahí estaba otra vez la palabrita, y otra vez los ojos en blanco. "¿La qué?", dijo mi primo. "La nube", dijimos al unísono @Morpheus_mx1 y yo. Y así fue como me di cuenta que prácticamente nadie fuera de los sospechosos comunes saben qué es la nube, o de qué viene.

Y entonces llegó el cuestionamiento: ¿acaso lo sabemos nosotros? No con exactitud. Tenemos una vaga idea, de la cual no estamos del todo seguros. El objetivo del próximo post es explicar este concepto, de manera que lo entienda cualquier científico del Colson. Y mi primo.

Solicito ayuda en la forma de 140 caracteres, con el hashtag #queeslanube

Hasta mañana!

Tips a leia.y2k@gmail.com

miércoles, julio 20, 2011

El cielo por 999 dólares y el león que maúlla


La única cosa que poseo de Apple es un iPod Touch centenario (en tiempo internet) y aún así se me podría ubicar muy cerca del rango de "fanboy" (categoría: pobre) en términos de seguir lo que hace la compañía liderada por Jobs.

De hecho, una de mis primeras notas en el h periódico estuvo dedicada a la iMac (aquéllas de colores, cuando Apple se "reinventó"). Y desde mi humilde y caótico escritorio observé maravillada cada uno de los nuevos lanzamientos de Apple. Hardware y Software.

Ví desaparecer el diskette. Vi nacer iTunes (boom!), perdí la cuenta de los streaming de keynotes de MacWorld y WWDC vistos y vueltos a ver, me sé de memoria el outfit de Jobs (jeans, black turtleneck shirt, new balance ftw), y sus muletillas (one more thing...). Vi fracasar el cubo y triunfar al iPod. En fin, you get it.

Y vi nacer la MacBook Air. Y (lo confieso) es la máquina de mis sueños. Como decía ayer, es una cuestión irracional.

Así que hoy como todo fan de Apple sabe no se puede escribir de otra cosa más que de los nuevos lanzamientos: Una nueva y más rápida MacBook Air (hello, backlit keyboard!, $999 heaven) y un nueva versión del sistema operativo OS X. Lion. Roarrr. Or not so...

Con el rigor periodístico que me caracteriza (LOL) revisé mi TL de tecnólogos en twitter y pregunté en twitterville hmo edition cómo les iba con Lion. La respuesta fue un tanto desalentadora.

Que el launchpad, superchafa y que mission control, nomás no. Que los Full Screen apps, bien. Entonces, que el león maulla en lugar de rugir (i am looking at you @ybarrarubio). ¿Demasiadas expectativas, quizá?

El review de Brian X. Chen para Wired de alguna manera sigue esta línea: Lion is smooth but tries too hard to be iOS. Y también critica el launchpad. So, nay.


Sin embargo, hay opiniones divergentes. Hay quien dice que mission control y launchpad son básicamente eye candy, de manera que no importa demasiado si ruge o no.

"A mi si me gustó que el 95% de las apps ya son 64 bits y que la mayoría aprovechan el GPU para ciertos procesos", dice @carloslaso, eterno usuario de Mac.

Y es cierto. El update no costó 129 dólares, sólo 30, con la posibilidad de instalarlo en 5 máquinas.

"Hace rato dijeron que se iban a concentrar en las tripas del OS, por eso cuesta tan barato, yo espero estabilidad", dice.

Esperar estabilidad goes without saying, pero Apple nos tiene (¿demasiado?) acostumbrados al eye candy.


Lamentablemente no he tenido oportunidad de probarlo, así que el full review tendrá que esperar. Hasta que me robe una mac. Mwahaha.

Hasta mañana.

Por cierto, farewell white mac de 13 pulgadas/DVD.

Tips a leia.y2k@gmail.com (acepto invitaciones a probar Lion y/o MacBooks Air de regalo. LOL)

martes, julio 19, 2011

La eterna fascinación por la tecnología

Este blog tiene una consigna: la de ser actualizado diariamente con un post. Sin embargo, su autora sufre de constantes distracciones y tiene cerebro de mosca de la fruta. El desorden de déficit de atención y el calor de Hermosillo no ayudan.

Pero cumplamos. Cumpliré. La verdadera causa de que hoy no haya escrito un post es que el post que debí haber escrito no puedo escribirlo porque se trata de una versión beta, o de prueba, de una aplicación que un querido amigo está ideando/codificando por ahora.

Las versiones beta son algo genial para la gente como yo. De hecho soy conocida por "quebrar" casi cualquier programa por siempre hacer cosas inauditas que no han sido validadas. ¡Pop! There goes the perfect code... (no digo que sea algo bueno, es una especie de super poder triste).

El punto es que este post no se trata de dicha app, no, ni de su creador, a quien respeto mucho como desarrollador, ni a que no es una app muy seria ni nada por el estilo, más bien un hobby. Este post se trata de la eterna fascinación por la tecnología, esa que nos hace discutir con pasión sobre la disponibilidad de la app de g+ en el ipod o pasar horas haciendo jailbreaking... o como yo, divertirnos como enanos haciendo beta testing.

¿Ha oído la frase esa de "geek and proud"? Antes de que se pusiera de moda la palabra geek, o ser geek, esa sensación de (¿poder?) era la moneda de cambio en cualquier centro de cómputo cada vez que (aaaaah!!!!) al fin corría un código difícil, o (epifanía) por fin descubríamos cual era el maldito error que no permitía compilar, o ... los ejemplos son infinitos.

Diga lo que diga me quedaré corta. Leí hace poco en una revista (Wired, para variar) que hoy en día existen los early adopters, los late adopters y los "reluctant adopters". Son éstos últimos los que a pesar de criticar a Apple, estar conscientes del efecto Jobs, los clichés (ooooh, shiny, white!) y demás, decidieron adquirir la iPad. They had to. Podría explicarse desde el punto de vista de la teoría económica. No es precisamente una decisión racional. ¿O sí?

Y así vamos por la vida. Nos fascina (o intriga, o vamos, somos reluctant adopters) de google +, tenemos un blog (o dos o tres), revisamos compulsivamente nuestros replys o DM´s en Twitter, hacemos check in en foursquare y somos famosos por sacar el smartphone a la menor provocación porque... esa foto hay que publicarla. With hashtag and everything.

Dentro de mi ignorancia, me pregunto cómo habrá sido la primer discusión tecnológica entre dos seres humanos... tal vez al descubrir cómo hacer fuego. No lo sé. Probar con otro tipo de piedras, quizá. Otras formas. Algo primitivo y productivo.

Y aquí estamos, conectados por un sinfín de redes sociales, usando nuestros aparatos, preguntándonos como sacar el mejor provecho de ellos, comentando fallas, resolviendo problemas, reportando bugs, participando en foros, acampando en eventos dedicados exclusivamente a este fenómeno. Y me pregunto de qué fascinantes maneras todo esto estará influyendo en lo que algunos científicos llaman "inteligencia colectiva".

Otra vez, es tema para otra ocasión. De hecho, es tema de tesis.

Hasta mañana.

Tips a leia.y2k@gmail.com

La bio de Miguel; lo prometido es deuda

Por Talya Aluveaux @talya Miguel de Icaza nació en 1972. Es un programador, mejor conocido por iniciar los proyectos GNOME, Mono y Xamarin. ...