report, TEI°08

TEI 19.02.2008

Tag 2

Vorab:

Es gab ein kleines Delay in der Veröffentlichung der Weblogs gestern. Verzeihung dafür. Auch möchte ich um Verständnis bitten, dass die Videos etwas längere Ladezeiten haben – ein wenig Geduld, ich finde es lohnt sich etwas zu warten ;o).

Es kann sein, sollten Sie einen PC benutzen, dass Ihnen das nötige Quicktime Plug-in fehlt. Ich empfehlen Ihnen es hier herunterzuladen >>

Der zweite Tag begann wieder mit einer Papersession. Es würde den Rahmen dieses Tagebucheintrages sprengen über alle zu berichten, deswegen habe ich eines ausgewählt, das ich am interessantesten fand.

Am beeindruckendsten und witzigsten war das Paper von Kazuhiro Jo der das Projekt DrawSound vorgestellt hat. Es handelt sich um eine Anwendung, bei der mit tatsächlichen Zeichenmedien, er verwendet Kreide, japanische Tinte und einen breiten, mit Draht versehenen Pinsel, auf Papier gemalt werden kann und dadurch gleichzeitig ein Ton erzeugt wird. Das Papier liegt auf einem Multitouchscreen, der die Druckflächen der Zeichenutensilien abtastet, während sie gleichzeitig auf das Papier zeichnen. Der Ton der entsteht ist eine Sinus Welle, deren Amplitude, also Tonhöhe zeichnerisch verändert werden kann indem man auf dem Papier einen vertikalen Strich zieht. An der unteren Kante ist der tiefste Ton, am oberen Blattende der höchste. Er nutzte die Pastelkreide als der Sinuskurve entsprechendes Zeichenmittel dafür. Dann hat er mit dem Pinsel White Noise (wir kennen es als Interferenz Rauschen im Radio oder Fernseher) gemalt, deren Lautstärke sich geändert hat um so länger der Strich wird. Kurze Stupser mit dem Pinsel sind sehr leise, längere Striche werden lauter. Am besten gefiel mir, als er ein Klavierstück von Bach auf die Linie gemapt hat und das Tempo des Stücks steuern konnte in dem er schneller oder langsamer malte.

An dieser Stelle möchte ich auf das Paper verweisen >>

Wichtig war mir heute vorallem die Demos zu sehen die im Untergeschoss ausgestellt sind. Gestern habe ich es ja leider verpasst mir die Ausstellungen anzusehen. Heute habe ich also noch die einzelnen Teams erwischt und mir die Interfaces zeigen und erklären lassen. Hier nun ein paar Videos und kurze Kommentare.

Das erste Projekt was ich hier vorstellen möchte ist das SpeakUp. SpeakUp wurde am MIT von Jamie Zigelbaum entwickelt und ist ein sehr intuitiv funktionierendes Aufnahme- und Abspielgerät von hauptsächlich gesprochenen Tönen. Es besteht aus einem von Jamie selber entwickeltem und gebautem Prozessorkern und ist mit einem Lautsprecher und Microphon versehen. Es ist rund, weiß und mit weichem Silicongummi ummantelt. Das Gefühl es in der Hand zu halten ist als recht angenehm soft. Halte ich es in den Händen und drücke nun das Zentrum des handflächengroßen, weichen Gerätes von mir weg, bilde also eine Art konkave Schale damit, so kann ich Töne aufnehmen. Schön, denn die Metapher in etwas hineinzusprechen wird formal durch die Schale, also das Aufbewahrungsobjekt wiedergegeben. Zum Abspielen der Töne stülpe ich SpeakUp wieder um, so dass sich das Zentrum mir entgegenreckt. Die LED, die um das Zentrum angebracht sind leuchten im Ausschlag der Amplitude auf. Auch hier wieder das Paper>>

Was mich auch sehr begeistert hat war die Installation des MusicTables “Xenakis” von einem Kolaborationsprojekt der Uni Augsburg, der Uni München und der LMU Augsburg. Diese drei Institutionen bieten den Studiengang Software Engineering an, in dessen Rahmen dieses Musicinterface entstanden ist. Es ist mit C#, .net und Horde 3D programmiert und ist eine wundervolle Anwendung, die besonders dadurch auffällt, dass sie so unglaublich einfach zu bedienen ist. Ein nicht zu unterschätzender Bonuspunkt ist auch die starke Musikanlage, über die die Töne ausgegeben werden, so dass ich mich beim Ausprobieren schon beim ersten Bassschlag wie im Club gefühlt habe und auch sofort in eine “groovige” Stimmung geraten bin. An dieser Stelle auch ein kleines Tutorial Video der Entwickler und das Paper gibt es hier >>

spacer_xenakis

Gleich neben dem Xenakis war das Soundinterface der Gruppe des Informatikfachbreichs Hamburg>>. Die Installation bezieht sich auf frühere Projekte wie beispielsweise Soundvison>>. Es erinnerte mich auf den ersten Blick sehr an Ishii et. al.s Sandscape >> , funktioniert aber in einer anderen Weise. Auf einer Fläche liegt Vinylgranulat. unter der Fläche ist eine Kamera und ein Projektor angebracht. Die Kamera erkennt die Opazität der Oberfläche (an der Stelle wo Granulat liegt ist es dunkler). Der Projektor zeigt sehr ruhige und fließende Bewegtbildanimationen. Fahre ich jetzt mit meinen Händen über die Granulatfläche und lege den Untergrund frei, so erzeuge ich einen Ton, der je nach Schnelligkeit und Richtung der Bewegung variiert. Der Ton konnte am besten als ambient beschrieben werden. Das Tolle an dieser Installation ist, dass sie mit etwas Verzögerung reagiert und sehr ruhige Klänge erzeugt. Man ist gezwungen auch langsame Bewegungen zu vollführen, was dazu führt, dass man sich automatisch mehr auf seine Bewegungen und das Gefühl konzentriert, was einem das Granulat vermittelt. Die Fingerreize werden ganz wundervoll stimuliert, ähnlich dem Gefühl über Kies, oder Sand zu streichen. Man beginnt zu formen und händisch zu erforschen was für Töne man mit dem Granulat erzeugen kann, nach dem interessantesten Gefühl für die Hände. Sehr toll, zumal es so poetisch ist und an meditative Verhaltensstrukturen wie Mandalas und japanische Steingärten erinnert.

Auch hier eine kleine Demonstration und das Paper >>

Abends ging es dann noch zum Dinner, wobei es viele nette Gespräche gab. Trotz der vielen Biere, die gereicht wurden (Social Event laut Schedule!!), erinnere ich mich noch an ein interessantes Gespräch mit Shuo-Hsiu Hsu über die unterschiedlichen Ansätze zu Tangible Interface Designs, wenn man als Entwickler entweder aus der Informatik oder dem Design kommt. Wir kamen zu dem Schluss, dass, kommt man vom Design, man mehr daran interessiert ist das Produkt zu verbessern, einen Schritt weiter zugehen, über die reine Form hinaus Qualität zu erzeugen, wohingegen die Informatiker mehr an der reinen Interaktion als Schnittstelle interessiert sind. Naja… da lässt sich noch immer drüber diskutieren, Ich leite das an dieser Stelle auch gerne an Sie weiter. Ein anderes Gespräch bezog sich auf die Metapher als Ausgangspunkt für die formale Gestaltung von TUI. Bart Hengeveld der TU Eindhoven meinte “Metaphor Sucks” was ich nicht bestätigen konnte, da gerade über die Metapher ein Bezug zum kulturellen Leben, also eine Verortung des Interfaces in einen bestimmten Handlungskontext unterstützt und erzeugt werden kann. Wir kamen über die AudioCubes, die ich gestern vorstellte darauf, da sie keine räumlich-formale Eigenschaft haben, sie also nicht tatsächlich tangible sind. Wir reagieren auf sie visuell und akustisch, ihre begreifbare Form ist aber relativ unspannend, Würfel eben. langweiliger geht es eigentlich kaum noch. Nach der Erfahrung mi dem Granulat Tisch habe ich die Bedeutung des Inputs über die Hände erst richtig feststellen können.

speak up

Add your comment below, or trackback from your own site.

Subscribe to these comments.

Be nice. Keep it clean. Stay on topic. No spam.

You can use these tags: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>

*Required Fields