HTML5 vs. Flash

Derzeit ist in aller Munde der anstehende, neue Standard HTML5. Bietet HTML5 wirklich so viele Funktionen und Möglichkeiten, dass Flash zukünftig überflüssig wird? Verliert Flash durch den Einsatz von HTML5 seine Daseinsberechtigung? Eine entscheidende Antwort darauf kann heute nicht gemacht werden, wenn auch Steve Jobs unmissverständlich sich gegen Flash geäußert hat.

Die Grundlage für HTML5 wurde bereits im Jahr 2004 gelegt. In diesem Jahr gründeten kurzerhand die größten Browserhersteller, Apple, Opera und die Mozilla Foundation unter dem Namen „Web Hypertext Application Technology Vorging Group – kurz WHATWG – eine HTML-Arbeitsgruppe und veröffentlichten erste Entwürfe für eine neue Spezifikation namens „Web Applications 1.0“, welche den Grundstein für das heutige HTML5 darstellt. Im Oktober 2009 beschloss das W3c (World Wiede Web Consortium) unter Vorsitz des Internet-Pioniers Tim Berners-Lee den strengeren Standard XHTML durch HTML5 abzulösen. Ursprünglich wollte das W3C Konsortium parallel einen eigenen Webstandard XHTML 2 der auf Basis von HTML 4 und XHTML 1 – welcher seit dem Jahr 2000 als Standard gilt – aufbaut. Der XHTML 2 Standard sollte mit dem aktuellen Standard von HTML 4 und XHTML 1 kaum noch was gemeinsam haben, und rein auf XHTML aufbauen. HTML5 ist dagegen abwertskompatibel und hat vor allem das Ziel, HTML sinnvoll zu erweitern und zu verbessern. Die Entscheidung, welcher Standard letztendlich das Rennen macht, hatte aufgrund der Macht der Arbeitsgruppe WHATWG, der inzwischen Google ebenfalls angehört, die bessere Ausgangssituation. Das W3C hat mittlerweile eine eigene Arbeitsgruppe gegründet, die ebenfalls an HTML5 arbeiten, somit wurde der einst angedachte Standard XHTML 2 zwischenzeitlich wieder eingestellt. HTML5 soll bereits 2012 den Level W3C Candidate Recommendation erreichen.

Was genau bringt denn der neue Standard HTML5 mit?

Genaugenommen sind die Neuerungen von HTML5 ganz überschaubar. Insgesamt wurden weniger als 30 neue Tags definiert (als Tags bezeichnet man die in Klammer gesetzten Elemente, welche die Grundlage der HTML-Programmiersprache bilden). Die vielversprechensten Neuerungen sind hierbei die Canvas- und Video-Elemente. Zusätzlich wurden weitere Ergänzungen für das „semantische Web“ definiert. Diese Tags sind massgeblich dafür verantwortlich, dass mehr Inhalte für Suchmaschinen lesbar werden. Ein klassisches Beispiel ist hier die semantische Suchanfrage direkt in den Ergebnislisten. Mit dem Canvas-Element (deutsch Leinwand), können in einem rechteckigen Bereich – durch die JavaScript-Sprache – pixelgenau Inhalte positioniert werden. Dies ermöglicht viele neue Spielereien, die sinnvoll oder sinnlos sein können. Genauso interessant ist das Video-Element. Der „video-Tag“ ermöglicht in Zukunft ohne Plug-In’s, Videos direkt in Websites einzubetten und abzuspielen. Das hört sich in erster Linie sehr sinnvoll und interessant an. Aber, die Antwort welcher Codec in der Zukunft als Standard-Codec verwendet wird, ist bis heute noch nicht definiert. Eigentlich sollten ja Standards das Ergebnis erzielen, dass einheitliche Regelungen definiert werden. Beim Video-Codec ist sich die Arbeitsgruppe nicht einig. Apple mit Safari setzen hier auf den kommerziellen MPEG-Codec H.264, für dessen Nutzung ab 2016 Lizenzen anfallen. Firefox und Opera setzen dagegen auf den Open-Source-Codec „Ogg Theora“. In der Kompression bietet der H.264 Codec Vorteile gegenüber dem Ogg-Codec. Wie die Lizenzbedingungen des H.264 zukünftig aussehen werden, ist heute noch nicht bekannt. Für Websitebetreiber kann das in Zukunft aber wieder bedeuten, dass mehrere Technologien vorgehalten werden müssen.

HTML5 bietet vor allem im Bereich der Usability neue Möglichkeiten. Denkt man alleine einmal an die vielen Formular-Seite, die zukünftig durch den neuen Standard besser und einfacher bedient werden können. Oder sehen wir das rasante Wachstum von mobilen Endgeräten wie zum Beispiel das iPhone, das iPad oder die Android Handys. Hier bietet HTML5 mit der Gesten- oder Touchscreensteuerung viele neue Möglichkeit für die Bedienung einer mobilen Website.

Abschließend ist aus meiner Sicht die Technologiefrage noch lange nicht geklärt. Ob HTML5 Flash wirklich ablöst glaube ich nicht. Alleine die Unentschlossenheit im Video-Codec setzt schon voraus, dass hier weiterhin unterschiedliche Technologien zum Einsatz kommen können. Warum dann nicht gleich mit Flash entwickeln? Genauso bleibt die Frage offen, wie viele User weiterhin trotz HTML 5 Standard den Flash-Player installiert haben. Wenn die Zahl der installierten Flash-Player von 90 Prozent – oder selbst 80 Prozent – immer noch überschritten ist, sehe ich die Diskussion der Technologie als überflüssig. Dass sich Flash in Zukunft weiterentwickeln wird ist auch klar. Adobe wird schon in absehbarer Zeit sämtliche mobile Plattformen wie Android, Symbian, WebOS, BlackBerry oder auch Windows Mobile mit dem Flash-Player oder der Laufzeitumgebung AIR bedienen. Was für die Entwicklung wiederum bedeuten kann, dass mit der Entwicklungsumgebung von AIR ein Großteil der mobilen Technologien abgedeckt werden kann. Welcher Marktanteil dann Apples iOS übernimmt bleibt abzuwarten. Ob Apple sich auf Dauer der Flash-Technologie verschließt, bleibt abzuwarten.

Weiterführende Links zum Thema HTML5.

Möchten Sie Ihren Browser auf HTML5 testen? Rufen sie hierzu die Internetseite „www.html5test.com“ auf. Bei dem Projekt von Niels Leenheer erhält man in einer grafischen Übersicht, welche HTML5-Funktionsbereiche Ihr Browser unterstützt. Die maximale Punktzahl die erreicht werden kann ist 300 Punkte. Beim Test mit Safari 5.0.3 erreichte dieser 208 Punkten.

– Apples HTML5 Showcase: www.apple.com/html5
– Googles Showcase: www.chromeexperiments.com
– Canvas 3D Modell: http://bit.ly/3d_modell
– Diverse HTML5 Showcases: http://bit.ly/showcases
– Drag and Drop: http://html5demos.com/drag

Erkennen von transparenten und opaken Pixeln in ActionScript

Oft bekommt man als Entwickler ein .png, das als Button dienen soll. Hier ist wie immer der einfache Weg, Bild einbinden und den Container klickbar machen. Das ist ja soweit kein Hexenwerk. Jedoch kann das zu unschönen Effekten führen, da natürlich auch die transparenten Teile des Bildes Klickbar sind und somit Bereiche interaktiv, die rein optisch gesehen, nicht mehr zum im Bild enthaltenen Objekt gehören.

Klar kann man jedes mal eine Überprüfung des unter dem Mauszeiger liegenden Pixels machen und prüfen ob dieser nun transparent ist oder eben nicht. Aber es wäre doch schön, einfach eine Fläche zu haben, die man als ClickArea über das Bild legen kan, um darauf die MouseListener zu legen, ohne jedes Mal irgendwas abzuprüfen, was eventuell zu unschönen Seiteneffekten führt.

Die simple Variante hierfür ist eine BoundingBox zu generieren, welches das Rectangle repäsentiert, in dem die opaken Flächen liegen. Für hauptsächlich rechteckige Formen sollte das ausreichend sein. Aber was ist wenn, die Form komplexer ist oder einfach nicht Rechteckig? Das führt dann zu folgendem Ergebnis:

This movie requires Flash Player 9

Das ist bei dieser Form kein wirklich akzeptables Ergebnis. Man hätte sich hier auch einfach die Mühe sparen können. Also benötigt es einen anderen Ansatz, die eine Annäherung an die Form ermöglicht und so eine bessere BoundingBox zurückliefert.

Das Ansatz dazu klingt recht einfach. Man unterteilt das Bild in vier gleiche Rechtecke und schau nach, wie es mit den Transparenzen innerhalb der Fläche aussieht. Da gibt es drei Möglichkeiten: nur transparente, nur opake oder beides gemischte Pixel. Wenn es nur transparente Pixel sind, muss dieser Teil der Bildes nicht weiter untersucht werden. Genau das selbe gilt für die opaken Pixel. Jedoch sollte man sich hier den Bereich merken, da er ja zur BoundingBox des Bildes gehört, die ja Ziel der ganzen Aktion ist.

Bei den Rechtecken mit transparenten und opaken Pixeln muss man einfach wieder unterteilen und untersuchen. Dies sollte man aber nicht zu oft durchführen, da sich der Summe der Untersuchungen natürlich jedes mal vervierfacht. Im folgenden Beispiel habe ich 8 Iterationen verwendet, was zu einem recht guten Ergebnis führt:

This movie requires Flash Player 9

Die Überprüfung auf transparente und nicht transparente Pixel ist eigentlch recht einfach. Man nutzt das Rechteck aus der Unterteilung und führt die BitmapData.getPixels-Methode aus. Diese liefert einen ByteArray aller Farbwerte im Rechteck zurück und zwar 32-Bit. Über readUnsignedInt() bekommt man aus diesen wiederum die Farbwerte und kann diese über „>>> 24“ (Unsigned right shift) um eben 24 Bit nach rechts verschieben, womit der Alphakanal übrig bleibt. Hier bildet man die Quersumme der Alphawerte. Sollten diese 0x00 sein ist der Bildteil transparent, ist er 0xFF ist er eben opak. Hier lassen sich dann auch Toleranzen einfügen. Für die doch recht üppige Menge an Überprüfungen, ist es im übrigen besser eine Linked List zu nutzen, anstatt eines Arrays oder ArrayCollection.

Das ganze führt dann zu folgendem Ergebnis (grün sind die voll opaken Bereiche, die blauen die Randbereiche, die bei der letzten Iteration übrig bleiben):

This movie requires Flash Player 9

Flash: CopyPixel mit BitmapData

Mit der Bitmap-Data Klasse in Flash lassen sich bestimmte ausgewählte Pixel von einem BitmapData-Objekt in ein anderes kopieren. Diese Funktion lässt sich besonders dann nutzen, wenn bestimmte Bereich eines Bildes wieder verwendet werden sollen, ohne zum Beispiel einen weitern Auschnitt laden zu müssen.

Die erforderlichen Klassen hierfür sind die BitmapData, Rectange und Point Klassen. Die BitmapData-Klasse beinhaltet die benötigte copyPixel() Funktion. Zur Verwendung werden die anderen beiden Klassen benötigt, um die erforderlichen Paramter übergeben zu können. Der eigentliche Kopiervorgang lässt sich innerhalb einer Zeile Quellcode bewerkstelligen:
bitmapData_1.copyPixels(bitmapData_2, new Rectangle(0, 0, 50, 80), new Point(51, 0))

Hier wird eine Kopie des BitmapData_1 Objektes erstellt. Als erforderliche Parameter werden nun das Zielobjekt, die Gröe des Ausschnittes als Rechteck und zuletzt der Zielpunkt im Zielobjekt angegeben. Damit sind die Pixel kopiert.
Durch die Kombination dieser Möglichkeit mit der bereits beschriebenen Umrechnung von extern geladenen Bildern (JPG) in BitmapData-Objekte lassen sich zum Beispiel einfache Puzzles erstellen. Auch eine Zoomansicht des Ausschnittes lässt sich durch die freie Skalierbarkeit des BitmapData-Objekte mittles AS ohne große Qualitätsverluste umsetzen.

Schnelle Fourier-Transformation (1D + 2D) für ActionScript

Wie schon in einem älteren Beitrag (SoundMixer.computeSpectrum() vs. Sound.extract()) von mir beschrieben, gibt es (noch immer) ein Problem mit der computeSpectrum Methode des SoundMixers. Diese Methode zum Auslesen des Spektrums ist an sich eine schöne Funktion, gehört aber dem SoundMixer. Dieser ist eine globale Flash-Klasse, was einige Probleme mit sich bringt. Nutzt man diese Funktion innerhalb eines SWFs und hat andere SWF, welche Sound beinhaltet offen, kommt es unweigerlich zu Sicherheitsfehlern und wirklich unschönen Geräuschen.

Umgehen lässt sich dies mit Hilfe der der extract() Methode der Sound-Klasse. Hier wird das gesamte Frequenzspektum des Sounds augelesen und kann weiter verwendet werden. Aber es gibt einen gravierenden Unterschied bei beiden Mehtoden. Die computeSpectrum liefert von Haus aus eine schnelle Fourier Transformation mit. Hingegen liefert die extract()-Methode nur RAW-Daten zurück. Kurz zusammengefasst bedeutet dies, dass mit Hilfe der computeSpectrum die zurückgelieferten Frequenzen nach Bereich sortiert werden und bei der anderen Funktion eben nicht.

Klar könnte man hingehen und selbst eine einfache Sortierfunktion schreiben. Doch bei der etwas größeren Datenmenge die bewältigt werden muss, wird dies das Script auf jeden Fall verlangsamen. Eine Methode die verwendet werden kann zur Sortierung ist die Schnelle Fourier-Transformation, die auf der Diskreten Fourier-Transformation basiert. Aber leider gab es diese Funktion, wie gesagt, nur innerhalb der computeSepctrum() Methode.

Nun hat Eugene Zatepyakin sich die Mühe gemacht und eine Implementierung der schnellen Fourier-Transformation in ActionScript 3 geschrieben, die frei verfügbar bei Google-Code ist. Mit Hilfe dieser Klassen konnte ich, nach ein paar Tests, den SoundVisualizer mit der Funktionalität zur Sortierung der Sound Daten erweitern, ohne die oben kurz angerissenen Probleme wieder aufzureißen.

Die Implementierung ist, wie Eugene sie auch beschreibt, sehr einfach. Für die Verwendung mit Sound wird die FFT-Klasse verwendet. Des weiteren gibt es noch die FFT2D-Klasse, welche die Möglichkeit eine zweidimensionale Transforation durchzuführen bietet, wie sie etwa bei Bildern Verwendung findet. Bei der Initialisierung der Klasse mit deren init()-Methode sollte man auch nicht über 2048 Bytes gehen, da sonst wiederum die Performance leidet. Besonders ist darauf zu achten, dass die Anzahl der ausgelesenen Bytes über die extract-Methode mit der bei der init Methode übereinstimmt.

Der eingentliche Analyzer ist in der FFTSpectrumAnalyzer-Klasse. Hier wird in der initLogarithmicAverages-Methode zunächst die Mindestbandbreite angegeben und die Anzahl an Bändern, in die eine Oktave unterteilt werden soll.
Sehr wichtig ist auch die Einstellung „Little Endian“ für den ByteArray, welcher die resultierenden Daten hält. Innerhalb des onSampleDataEvent-Handlers werden die ausgelesenen Bytes dann der fft-Klass mittels setStereoRAWDataByteArray(bytes) mitgegeben, um dann anschließend die forwardFFT() aufzurufen, welche die eigentliche Transformation ausführt. fftHelp.analyzeSpectrum() liefert dann den analysierten ByteArray, welcher dann weiter benutzt werden kann für alle möglichen visuellen Ausgaben, zurück. Noch ist hier der Sound selbst noch nicht ausgegeben. Dafür müssen die Bytes zurück transformiert werden über fft.inverseFFT(). Nach dem Zurücksetzen der Position innerhalb des BytesArrays können nun die SoundBytes an event.data zur Ausgabe übergeben werden. Den genauen Ablauf der Funktionen kann man auch auf Google Code nachlesen. Hier hat Eugene zwei Beispielscripts eingefügt. Und als anschauliches Beispiel für die Verwendung seiner Bibliothek einfach den zeroseven SoundVisualizer anschauen. Hier ist im letzten Reiter eine weitere Checkbox, in der man angeben kann, ob die Daten sortiert (FFT) oder unsortiert (RAW) verwendet werden sollen.

Links:

FlashForum Konferenz 2010 – Community. Code. Creativity.

Auch dieses Jahr hatte ich die Möglichkeit die FFK zu besuchen, nachdem ich letztes Jahr bereits dort war. Auch Jürgen war diesemal mit dabei. Zwei Tage voller Vorträge über Flash, Flex und ActionScript, aber auch über Themen die über das reine Coding hinausgehen. Also eine breitgefächerte Themenwahl, welche jeden Flasher und Flexer in gewissem Maße betreffen.

Um es gleich Vorweg zu nehmen: Es war der Hammer. Die Fülle an Eindrücken, von neuen Ideen, Technologien und Ansätzen war wieder immens und macht wiederum klar wie mächtig eigentlich die Flash Platform ist. Aber auch die Selbstverständlichkeit im fast schon familiären Umgang der Coder untereinander war wieder beindruckend. Wann hat man denn schon die Möglichkeit die „Größen“ der Szene zu treffen und mit ihnen alltägliche Coderprobleme zu besprechen.

Dieser Text soll nun nur einen kleine Überblick sein, was ich an Themen mitbekommen hab in den Vorträgen. Ich denke in der nächsten Zeit werden Jürgen und ich immer mal wieder ein Thema hier von auf diesem Blog behandeln. Serge Jespers eröffnete die FFK und stellte unter anderem die Flash Platform Services vor. Interessant hier vor allem die Bereiche Distribution und Collaboration. Die ebenfalls dazugehörenden Social Services waren schon aus dem com.adobe Package bekannt.

Ich möchte jetzt nicht auf jeden Vortrag eingehen den ich gesehen habe. Aber ein paar Highlights für mich herauspicken. Dazu zählt unter anderm der Vortag von Michael Wacker „Mind the gaps“, der das Themas Flash Security hatte. Eine richtig gute Anregung und ein Fingerzeig für die Community, was es noch mangelt. Ganz klar mit dabei bei meinen Favoriten mit dabei Andre Michelles „Tanzen mit Krücken“. Sehr beeindruckend, vor allem interessant, dass immer mal wieder Tipps und Trick durchsickerten, wie SWFs schnelle und sicherer Laufen. Aber dies nicht nur bei ihm. Auch Saban Ünlü oder Ralph Hauwert mit seinen experimentellen Animationen, ließen hier und da immer wieder ein paar Worte dazu fallen.

Aber auch Bereiche wie Performance Tuning, Usability Testing, Aufbau von Software für Multitouch Devices waren Themen auf der FFK. Richtig beeindruckend, wie schon letztes Jahr, die beiden Vorträge von Joa Ebert und Mario Klingemann. Joas „Apparat“ ist kurz gesagt einfach der Hammer. SWF ByteCode Optimierung um so noch mehr auf Flash rauszuholen und noch schnelle Animationen laufen lassen zu können. Der experimentelle und künstlerische Ansatz von Mario versetzt jeden Flasher immer wieder in Staunen.

Der für mich am interessanteste Vortrag war aber von Jens Halm: „Enterprise Applications mit dem Parsley Application Framework“. Ich hatte davor wenig gehört von Inversion of Control und der ganzen Thematik die hier vorgestellt wurde. Aber der Ansatz der Modularisierung des Codes und der Vereinfachung der Zugriffe und Abhängigkeiten, vor allem die Implementierung in Cairngorm 3 haben mich hellhörig gemacht. Ein Ansatz der Programmierung der mir sehr entgegen kommt und vor allem auch den Workflow des einzelnen und eines ganzen Teams, aber auch das Testen von Apps und Teilbereiche deren immens vereinfacht und verbessert.

Ich könnte jetzt so noch ewig weiter schreiben, da beide Tage voll solche Eindrücke waren. Aber wie gesagt, in nächster Zeit gibt es hier immer wieder ein paar Auszüge davon. Nur eins noch: Ich warte jetzt schon auf die FFK 2011!

http://ffk10.flashforum.de/
http://www.adobe.com/flashplatform/services/

SWF-Uploader in TYPO3-Backend trotz .htaccess-Passwort

Eines der vielen neuen Features, die TYPO3 Version 4.3 mit bringt, ist der SWF-Uploader, bzw. die „Flash-Schnittstelle zum Hochladen“, wie es in der deutschen Sprachversion heißt. Doch wenn ein TYPO3-Projekt mit einem .htaccess-Passwortschutz versehen ist, was z.B. in der Entwicklungsphase oder evtl. auch aus anderen Gründen durchaus sein könnte, funktioniert der SWF-Uploader erstmal nicht.

Mit einem kleinen Eingriff in die .htaccess-Datei lässt sich der SWF-Uploader aber auch zum Laufen bringen, ohne den Passwort-Schutz vom ganzen Projekt zu nehmen. Dazu müssen einfach folgende Zeilen in die .htaccess-Datei eingefügt werden.

<Files ajax.php>
Allow from any
Satisfy any
</Files>

Die erste und vierte Zeile bewirken, dass die Anweisung nur für Dateien mit dem Namen ajax.php gelten soll. Zeile 2 besagt, dass ein Zugriff von jeder IP-Adresse aus möglich ist und Zeile 3 bewirkt, dass entweder die User-Authentifizierung via Passwort oder die IP-Adresse des Besuchers stimmen muss. Und da der Besucher jede beliebige IP-Adresse besitzen darf (Zeile 2), ist die Zugriffsbeschränkung für die Datei ajax.php aufgehoben und der SWF-Uploader funktioniert wieder tadellos.

Flash Experiment – Rotation

Eine Rotation über den Abstand der Maus zum Zentrum. Dabei werden hier in diesem Beispiel nur zwei Shapes gezeichnet, um dann eine Animation & Verzerrung über Matrix-Berechnungen und BitmapData.draw() zu realisieren:

This movie requires Flash Player 9

Der zeroseven SOUND VISUALIZER

Der Visualizer ist aus der einfachen Idee entstanden, Sounds mittels Flash zu visualisieren. Begonnen hat es mit einfachen Ausgaben des Spektrums eines Sounds mit Hilfe der computeSpectrum() Methode des SoundMixers. Immer weitere Versuche, was mit dem entstehenden ByteArray machbar ist, entstanden.

In Gesprächen entwickelte sich dann die Idee, eine Plattform zu schaffen, welche Sounds eines Users analysiert, visualisiert und später dann ein Bild zum Download der aktuellen Visualisierung anbietet. Ein einfacher Screenshot wäre hier möglich gewesen und die Bilder jpg- oder png-kodiert zum download anzubieten. Aber solche Bilder sind sehr klein und können dann z.B. nicht als Plakat gedruckt werden. Also suchte ich nach einer anderen Lösung. SVG wäre eine Variante gewesen. Dazu hatte ich auch schon die Grundzüge eines Exporters geschrieben, der die XML-Struktur aus Graphics-Elementen in ActionScript bilden kann. Hiermit wäre zumindest die freie Skalierbarkeit des Plakates gewährleistet. Etwa zu dieser Zeit bin ich dann auf die Bibliothek AlivePDF von Thibault Imbert gestoßen und hab auch hier erste Versuche betrieben (siehe labs-Eintrag dazu). Und nach ein paar Tests war klar, das ist der Weg, den ich für den Visualizer gehen muss.

Aber der SVG Exporter war nicht ganz gestorben. Das Logging-Tool das im Hintergrund mitläuft ist noch immer Teil der Anwendung. Einfach gesagt, merkt sich dass Tool die Spezifikationen aller Elemente. Dieses Log nutze ich jetzt beim PDF-Export zum Erstellen der Elemente des PDFs.

Anfangs mit random-Farben ausgestattet, brachte Sebastian die Idee ins Spiel Kuler für Farbprofile zu nutzen. Also erfolgte mit Hilfe des Adobe Syndication Packages das Laden und Auslesen des Feeds der 20 beliebtesten Farben von Kuler. Dennoch hat auch der User die Möglichkeit eigene Farben zu verwenden. Ein eigenes ColorPicker-Tool kommt hier zum Einsatz.

Auch die Formen wurden vielfältiger. Anfangs nur mit Kreisen gezeichnet, kamen weitere Grundformen und Polygone hinzu. Auch die Möglichkeiten der Ausgabe erweiterten sich, je mehr ich mich darin „reingetestet“ hatte. Eigene Formate entstanden sowie Hilfstools zur Umrechnung von Pixelwerten aus dem Logger hin zu Zoll und Millimeter. Die Oberfläche bekam ein schickes Design verpasst und weitere Funktionen spendiert, um dem User mehr Möglichkeiten zu geben sein eigenes Plakat zu erstellen.

Ein Problem das es zudem zu bewältigen galt, waren die Probleme der SoundMixer.computeSpectrum() Methode. An sich eine tolle Sache und auch die Möglichkeit den ByteArray als RAW-Daten oder als Daten mit einer schnellen Fourier-Transformation zu erhalten ist sehr viel wert. Aber der SoundMixer hat einen entscheidenden Nachteil. Er ist eine globale Klasse und greift somit auf alle möglichen Sounds zu. Das führte dazu, dass der Visualizer zum Beispiel versucht auf die Sounds eines Videos von YouTube zuzugreifen, wenn dieses in einem anderen Browser Tab oder Fenster läuft. Und ganz klar entsteht dabei ein Sandbox-Problem. Umgangen habe ich diese Problematik mit Hilfe der Sound.extract() Methode. Sie liefert den ByteArray gleich zu Anfang zurück und zwar für den gesamten Audiostream. Daher erfolgt hier die Abtastung anders und etwas komplizierter als bei der computeSpectrum() Methode. Aber auch hierzu gibt es schon einen labs-Eintrag von mir (Link).

So entwickelte sich mit der Zeit eine Oberfläche, die für mich zum einen als Versuchs- und Testprojekt diente, aber letztendlich ein Tool darstellt, das ein breites Spektrum der Flashfunktionen abdeckt und auch zeigt was man performancetechnisch mit Flash so anstellen kann.

Aber nun nicht länger lesen sondern einfach ausprobieren:
http://visualizer.zeroseven.de/

Des weiteren möchte ich noch Thibault Imbert für seine Mühe und Arbeit bei AlivePDF danken, ein wirklich hammerkrasses Tool! Ebenso Sascha Wolter für seinen SystemManager, den Junges von Greensock für TweenLite & TweenMax, den Entwicklern des De MonsterDebugger und denen von pixelbreaker.com für das MacMouseWheel.

www.alivepdf.org
www.wolter.biz
www.greensock.com
www.pixelbreaker.com
www.adobe.com
www.demonsters.nl

Flash Experiment – Pixelhole

Ein weiteres Experiment, das ein Bild auf Pixelbasis animiert. In Bezug auf die Mausposition zum jeweiligen Pixel wird eine Verschiebung generiert. Einfach klicken und ausprobieren:

This movie requires Flash Player 9

Flash Experiment – Curving

Ein kleines Experiment unter Verwendung eines Zusatzpackages von Lee Brimelow. Es wird alle 50 Millisekunden eine neue Linie mit zufälliger Farbe, Position und Winkel erzeugt und animiert. Um die Performance nicht ins unermessliche zu belasten, werden fertig animierte Linien auf ein BitmapData reduziert und von der DisplayList genommen.

This movie requires Flash Player 9