Testing Steam Link

Steam Link
Steam Link, unboxing.

It is my summer vacation period now, and during a rainy week, it would be nice to play also some PC games – either alone, or together as a social experience, if a game from a suitable genre is available. To bring the PC experience from my “media cave” to the living room, I installed Steam Link, a small device that is designed for remotely streaming and accessing the PC games, running on the gaming desktop PC (which is equipped with a powerful graphics card) in the basement, from the living room large-screen tv.

The idea is pretty plug-and-play style simple, but it actually took over an hour of troubleshooting to get the system setup right. Initially, there was no image in the television screen, apart from the blue Link boot symbol, and the trick that finally solved this issue was to change the HDMI cable to another one – the Link box appears to be a bit picky on those. Then, my “Xbox One Controller with the Wireless Adapter” did not work with Steam Link (it works fine with the PC), but my old PS3 Dualshock controllers appeared to work just fine, both in wired and wireless modes. Finally, there was an issue with “Dota 2”, the game I first tested, where the game got stuck with every dialog box, and did not accept any input from either the gamepad or from mouse/keyboard (one can connect also Bluetooth devices to the Steam Link) – I had to run downstairs to access the game locally from the PC to get over it (I wonder what was behind that one). Oh yes, and finally it appeared that there was no game sound in the living room television, from any game running in the Steam Link. This could also be fixed by going downstairs, and changing manually the Windows 10 playback device to be the living room television set – the Steam software appears to get confused, and automatic configuration will end up muting and/or playing sounds via wrong audio devices.

Steam Store, running via Steam Link.
Steam Store, running via Steam Link.

But after those ones, we got some nice, all-family gameplay action with the “Jones on Fire” PC version. And there are now several more games downloading from the Steam store, so developing and selling – rather cheaply – the Steam Link box appears to be a smart move from Valve. Now, if only the multiple components and services in a typical h0me network would play together a bit more reliably, and the support for wireless game controllers (such as the wireless Xbox One version) would be better, this would be an excellent setup.

Keynote, EDEN 2017 – Diversity Matters!

EDEN 2017 keynote, Frans Mäyrä
EDEN 2017 keynote, Frans Mäyrä

Next week, I will take part in EDEN 2017 – the annual conference of the European Distance and E-Learning Network – in Jönköping, Sweden. I am proud to present an invited keynote in the first conference day, 14th June. Titled “Multidimensional Ludic Literacy: Diversity in Game Cultures” my talk is aimed to build bridges between the multiple dimensions needed to understand and constructively engage with games and play (the ludic literacy), and the issues related to diversity in game cultures. Looking forward to an interesting exchange of ideas. (Btw, this is also the first public appearance of the Centre of Excellence in Game Culture Studies logo – test driving it: the CoE officially starts its operational period from January 2018.)

See the full conference program here: http://www.eden-online.org/2017_jonkoping/wp-content/uploads/2017/05/Conference-Programme.pdf.

Chilies: May 2017 update

2017-05-21 13.06.31-1
Tepin x Lemon Drop hybrid is the tallest plant at the moment. It has also started to bear fruit, already!

I have been growing a variety of chili peppers for a few years now, and the most of summers 2015 and 2016 were spent building and then testing the Juliana greenhouse that we use for extending the warm season here in Finland. This year however, April was the coldest in record, and there was no point in taking plants outdoors, when it would had just meant having the electric heater working around the clock (which means: expensive chilies!) Now, at the end of May, it finally looks like the unseasonal snow storms could be behind us (knocking on wood…) and this weekend has been the one when the greenhouse has been set up for business, most of the chilies have moved into bigger pots, while there has been also plenty of other work going on in our garden.

As I wrote earlier, I tried out the simple Ikea hydroponic system in germination and sapling phases. The early steps worked very well, and it seems that for indoor chili growing the setup is good for these first steps. However (partially due to the deferred Spring), I kept the saplings too long in the hydroponic setup – if large plants like chilies are grown in hydroponic manner, it needs to have a water pump installed, that keeps the nutritious water flowing over the roots, rather than just soaking them. I did not have the pump, and ended up in troubles, with growth of some plants suffering, and even losing a couple of important chili varieties. I moved the remaining plants into soil and pots in early April, if I remember correctly, but I should had done that much earlier. The growth was strong after the move, even while growing plants had to get along on the windowsill, without any extra plant lights from that onwards.

2017-05-21 13.07.31
Scorpion, one from Messukylä school sale.

Luckily, there was the school yard sale in the local Messukylä school, where again hundreds of plants, dozens of chilies included, were available, so I could supplement my selection. I lost all my Aji varieties, and both of my extra hot varieties, “7 pot Brain Strain Yellow” and the Bhut Jolokia. But from the school sale I managed to get both a new Bhut Jolokia, as well as a Moruga Scorpion – both traditionally top of the line, as long as heat is measured. And there were also a couple of interesting habanero varieties that I picked up, as well as something that was called “Jalapeno Hot”. I have only tried rather mild japapenos so far, so it is interesting to see how that will turn out.

Here are some photos from the chilies at this point, 21st May: the school yard saplings are much smaller than the ones that I had grown in hydroponics and then in pots starting in January. The “Naga” (Bhut Jolokia) is particularly small, hopefully it will survive the move into a larger pot, it does not have particularly strong roots yet.

2017-05-21 13.10.13
My “Madame Jeannette” habanero is growing strong, though still indoors.
2017-05-21 13.11.29
Pequin Firecracker is also making nice growth right now, it should move to the greenhouse in near future, I think.

Talking about roots, I try this time using a specific commercial nutritient, Biobizz “Root Juice”: it is an organic “root stimulator” designed to boost root growth. As I had a gift voucher to a local chili gardeners’ store (thanks, Gamelab colleagues!), I have now also other nutritients to try – sticking to Biobizz products, per shopkeeper’s advice in soil based chili cultivation.

2017-05-21 12.53.25
“Root Juice”.
2017-05-20 17.38.49
My other tools in testing: “Top-Max”, “Bio-Bloom”, “Bio-Grow” by Biobizz (company is originally from the Netherlands), and also the Finnish classic, “Jaakon taika” (a photosynthesis booster).
2017-05-21 12.22.23
Gardening can provide many rewards.


Thunderbolt 3, eGPUs

(This is the first post in a planned series, focusing on various aspects of contemporary information and communication technologies.)

The contemporary computing is all about flow of information: be it a personal computer, a mainframe server, a mobile device or even an embedded system in a vehicle, for example, the computers of today are not isolated. Be it for better or worse, increasingly all things are integrated into world-wide networks of information and computation. This also means that the ports and interfaces for all that data transfer take even higher prominence and priority, than in the old days of more locally situated processing.

Thinking about transfer of data, some older generation computer users still might remember things like floppy disks or other magnetic media, that were used both for saving the work files, and often distributing and sharing that work with others. Later, optical disks, external hard drives, and USB flash drives superseded floppies, but a more fundamental shift was brought along by Internet, and “cloud-based” storage options. In some sense the development has meant that personal computing has returned to the historical roots of distributed computing in ARPANET and its motivation in sharing of computing resources. But regardless what kind of larger network infrastructure mediates the operations of user and the service provider, all that data still needs to flow around, somehow.

The key technologies for information and communication flows today appear to be largely wireless. The mobile phone and tablet communicate to the networks with wireless technologies, either WiFi (wireless local area networking) or cellular networks (GSM, 3G and their successors). However, all those wireless connections end up linking into wired backbone networks, that operate at much higher speeds and reliability standards, than the often flaky, local wireless connections. As data algorithms for coding, decoding and compression of data have evolved, it is possible to use wireless connections today to stream 4K Ultra HD video, or to play high speed multiplayer games online. However, in most cases, wired connections will provide lower latency (meaning more immediate response), better reliability from errors and higher speeds. And while there are efforts to bring wireless charging to mobile phones, for example, most of the information technology we use today still needs to be plugged into some kind of wire for charging its batteries, at least.

Thunderbolt 3 infographic, (c) Intel
Thunderbolt 3 infographic, (c) Intel

This is where new standards like USB-C and Thunderbolt come to the picture. Thunderbolt (currently Thunderbolt 3 is the most recent version) is a “hardware interface”, meaning it is a physical, electronics based system that allows two computing systems to exchange information. This is a different thing, though, from the actual physical connector: “USB Type C” is the full name of the most recent reincarnation of “Universal Serial Bus”, an industry standard of protocols, cables, and connectors that were originally released already in 1996. The introduction of original USB was a major step into the interoperability of electronics, as the earlier situation had been developing into a jungle of propriety, non-compatible connectors – and USB is a major success story, with several billion connectors (and cables) shipped every year. Somewhat confusingly, the physical, bi-directional connectors of USB-C can hide behind them many different kinds of electronics, so that some USB-C connectors comply with USB 3.1 mode (with data transfer speeds up to 10 Gbit/s in “USB 3.1 Gen 2” version) and some are implemented with Thunderbolt – and some support both.

USB-C and Thunderbolt have in certain sense achieved a considerable engineering marvel: with backward compatibility to older USB 2.0 mode devices, this one port and cable should be able to connect to multiple displays with 4K resolutions, external data storage devices (with up to 40 Gbit/s speeds), while also working as a power cable: with Thunderbolt support, a single USB-C type port can serve, or drain, up to 100 watts electric power – making it possible to remove separate power connectors, and share power bricks between phones, tablets, laptop computers and other devices. The small form factor Apple MacBook (“Retina”, 2015) is an example of this line of thinking. One downside for the user of this beautiful simplicity of a single port in the laptop is need for carrying various adapters to connect with anything outside of the brave new USB-C world. In an ideal situation, however, it would be a much simpler life if there would only be this one connector type to worry about, and it would be possible to use a single cable to dock any device to the network, gain access to large displays, storage drives, high speed networks, and even external graphics solutions.

The heterogeneity and historical layering of everyday technologies are complicating the landscape that electronics manufacturers would like to paint for us. As any student of history of science and technology can tell, even the most successful technologies did not replace the earlier ones immediately, and there has always been reasons why people have been opposing the adoption of new technologies. For USB-C and Thunderbolt, the process of wider adoption is clearly currently well underway, but there are also multiple factors that slow it down. The most typical peripheral does not yet come with USB-C, but rather with the older versions. Even in expensive, high end mobile phones, there are still multiple models that manufacturers ship with older USB connectors, rather than with the new USB-C ones.

A potentially more crucial issue for most regular users is that Thunderbolt 3 & USB-C is still relatively new and immature technology. The setup is also rather complex, and with its integration of DisplayPort (video), PCI Express (PCIe, data) and DC power into a single hardware interface it typically requires multiple manufacturers’ firmware and driver updates to work seamlessly together, for TB3 magic to start happening. An integrated systems provider such as Apple has best possibilities to make this work, as they control both hardware as well as software of their macOS computers. Apple is also, together with Intel, the developer of the original Thunderbolt, and the interface was first commercially made available in the 2011 version of MacBook Pro. However, today there is an explosion of various USB-C and Thunderbolt compatible devices coming to the market from multiple manufacturers, and the users are eager to explore the full potential of this new, high speed, interoperable wired ecosystem.

eGPU, or External Graphics Processing Unit, is a good example of this. There are entire hobbyist forums like eGPU.io website dedicated to the fine art of connecting a full powered, desktop graphics card to a laptop computer via fast lane connections – either Expresscard or Thunderbolt 3. The rationale for this is (apart from the sheer joy of tweaking) that in this manner, one can both have a slim ultrabook computer for daily use, with a long battery life, that is then capable of transforming into an impressive workstation or gaming machine, when plugged into an external enclosure that houses the power hungry graphics card (these TB3 boxes typically have full length PCIe slots for installing GPUs, different sets of connection ports, and a separate desktop PC style power supply).  VR (virtual reality) applications are one example of an area where current generation of laptops have problems: while there are e.g. Nvidia GeForce GTX 10 series (1060 etc.) equipped laptops available today, most of them are not thin and light for everyday mobile use, or, if they are, their battery life and/or fan noise present issues.

Razer, a American-Chinese computing hardware manufacturer is known as a pioneer in popularizing the field of eGPUs, with their introduction of Razer Blade Stealth ultrabook, which can be plugged with a TB3 cable into the Razer Core enclosure (sold separately), for utilizing powerful GPU cards that can be installed inside the Core unit. A popular use case for TB3/eGPU connections is for plugging a powerful external graphics card into a MacBook Pro, in order to make it into a more capable gaming machine. In practice, the early adopters have faced struggles with firmwares and drivers that do not provide direct support from either the macOS side, or from the eGPU unit for the Thunderbolt 3 implementation to actually work. (See e.g. https://egpu.io/akitio-node-review-the-state-of-thunderbolt-3-egpu/ .) However, more and more manufacturers have added support and modified their firmware updates, so the situation is already much better than a few months ago (see instructions at: https://egpu.io/setup-guide-external-graphics-card-mac/ .) In the area of PC laptops running Windows 10, the situation is comparable: a work in progress, with more software support slowly emerging. Still, it is easy to get lost in this, still evolving field. For example, Dell revealed in January that they had restricted the Thunderbolt 3 PCIe data lanes in their implementation of the premium XPS 15 notebook computer: rather than using full 4 lanes, XPS 15 had only 2 PCIe lanes connected in the TB3. There is e.g. this discussion in Reddit comparing the effects this has, in the typical case that eGPU is feeding image into an external display, rather than back to the internal display of the laptop computer (see: https://www.reddit.com/r/Dell/comments/5otmir/an_approximation_of_the_difference_between_x2_x4/). The effects are not that radical, but it is one of the technical details that the early users of eGPU setups have struggled with.

While fascinating from an engineering or hobbyist perspective, the situation of contemporary technologies for connecting the everyday devices is still far from perfect. In thousands of meeting rooms and presentation auditoriums every day, people fail to connect their computers, get anything into the screen, or get access to their presentation due to the failures of online connectivity. A universal, high speed wireless standard for sharing data and displaying video would no doubt be the best solution for all. Meanwhile, a reliable and flexible, high speed standard in wired connectivity would go a long way already. The future will show whether Thunderbolt 3 can reach that kind of ubiquitous support. The present situation is pretty mixed and messy at best.

#Tampere3: suuri lupaus, turhia sääntöjä

Tampere3-työnimellä valmisteltu kolmen tamperelaisen korkeakoulun fuusio on lähestymässä uutta vaihetta: 20.4.2017 on tarkoitus pitää uuden yliopistosäätiön perustamisen allekirjoitustilaisuus Tampereella. Yhdistyminen on historiallinen ja osaltaan näyttää suuntaa korkeakoulukentän kehitykselle laajemminkin. Maanantaina 10.4. säätiön perustamiskirjaa ja sääntöluonnokseen tehtyjä muutoksia käsitellään Tampereen kaupunginhallituksen kokouksessa, missä yhteydessä hyväksyttäväksi tarkoitetut asiakirjat ovat tulleet ensimmäistä kertaa julkisesti saataville. Näitä, lopullisiksi tarkoitettuja versioita on nyt siis vasta mahdollista tarkastella, kommentoida ja käydä niistä julkista keskustelua. Esitetyssä muodossaan säätiön säännöissä on valitettavasti useita ongelmia. Aluksi hieman taustaa.

Tampere3-fuusioprosessissa on ollut monia vaiheita, kuten tällaisissa laajoissa ja monimutkaisissa hankkeissa usein on. Olen itse seurannut hankkeen etenemistä keväästä 2016 lähtien tiiviisti OKM:n asettaman Tampere3-ohjausryhmän jäsenenä. Ohjausryhmään on ollut nimettynä jäseniksi ministeriön asiantuntijoita, kolmen korkeakoulujen rehtorit, sekä yliopistoyhteisön ja hankeorganisaation edustajia. Itse toin työryhmään tieteellistä työtä johtavan professorikunnan sekä laajemmin yliopistojen henkilöstön näkökantoja. Kevään ja kesän aikana uudelle yliopistolle sekä sen ja ammattikorkeakoulun muodostamalle konsernille hahmoteltiin kunnianhimoinen visio monialaisena ja poikkitieteisenä, uusia uria aukovana korkeakouluna, missä tehdään tiedettä joka ammentaa käytännöistä, ja missä innovoidaan ympäröivän yhteiskunnan ja tutkimuksen vuoropuheluun perustuvaa, uudenlaista opetusta.

Syksyllä hanke ajautui kuitenkin vaikeuksiin ja marraskuussa 2016 uutisoitiin laajalti, että TTY-säätiön hallitus oli osaltaan päättänyt keskeyttää Tampere3-korkeakoulufuusion valmistelun. OKM:n Tampere3-ohjausryhmän viimeiseksi kokoukseksi jäi 14.10. pidetty kokous, missä vaiheessa esillä oli vielä näkemys, että säätiön perustaminen tapahtuisi joulukuun alussa, ja yliopistokonserni aloittaisi 1.1.2018. Erityisesti TTY:n johto peräänkuulutti yliopistoyhteisöiltä yhteistä näkemystä ”strategisesta johtamisjärjestelmästä”, realistisempaa aikataulua, sekä valtiolta lisärahaa niin siirtymävaiheen kustannuksiin kuin uuden yliopiston pääomittamiseen.

OKM:n, kolmen korkeakoulun hallitusten, niiden taustayhteisöjen ja Tampere3-säätiön perustajiksi sitoutuneiden lukuisten osapuolten (mm. Tampereen kaupunki ja Teknologiateollisuus ry.) väliset keskustelut, missä Tampere3-prosessi saatiin jälleen käynnistymään ovat ilmeisesti olleet monipolviset, mutta näistä vaiheista ei ole juurikaan tiedotettu, eikä OKM:n Tampere3-ohjausryhmää ole enää kutsuttu kertaakaan koolle. Opiskelijalehti Aviisi julkaisi 30.3. laajan artikkelin, missä hankkeen nykytilannetta ensimmäistä kertaa yksityiskohtaisemmin saatiin avattua (ks. http://www.aviisi.fi/2017/03/tampere-3-kulkee-kohti-maalia-erimielisyydet-haudattu-vahin-aanin/). Hankeen aikataulu näissä neuvotteluissa määriteltiin uudelleen siten että uuden yliopiston käynnistys olisi 2019 alusta, ja lisärahaakin oli luvassa – tosin tavoitellun 50 miljoonan sijaan siirtymävaiheeseen on ilmeisesti nyt luvattu 22 miljoonan euron rahoitus. Keskeinen kannustin neuvottelujen ripeään jatkamiseen vuoden vaihteen jälkeen lienee ollutkin raha: OKM:n ja tamperelaisten korkeakoulujen välisiin tulossopimuksiin on kirjattu lisärahoitus ehdollisena. Jos hankekokonaisuus ei etene sovitusti, ministeriö poistaa fuusion toteuttamiseen luvatun lisärahoituksen.

Yliopistoyhteisö on viime kuukaudet ollut odottavalla kannalla ja toivonut neuvottelujen johtavan viisaaseen lopputulemaan. Se, että säätiön perustamiseen ja Tampere3-yliopiston toteuttamiseen on nyt päädytty, on erittäin tervetullut uutinen, ja seuraavissa vaiheissa mahdollistaa katseen siirtämisen entistä selkeämmin itse tekemiseen; niin tutkimuksen, opetuksen kuin yhteisten tukipalvelujenkin valmistelun alueella henki on ymmärtääkseni ollutkin hyvä ja rakentava. Suurimpia kysymysmerkkejä on liittynyt siihen, millaista yliopistoa hallinnollisesti, tieteen autonomian ja eri tieteenalojen asiantuntemuksen kuulemisen näkökulmasta ollaan tekemässä.

Suomen perustuslaki takaa yliopistoille itsehallinnon, ja yliopistolaki täsmentää puitteet tälle yliopistojen itsehallinnolle, sekä vahvistaa niissä vallitsevan tutkimuksen, taiteen ja opetuksen vapauden. Nyt julki tulleet yliopistosäätiön säännöt vahvistavat yleisellä tasolla sitoutumisen näihin perusperiaatteisiin. Sääntöluonnoksessa on kuitenkin myös useita yksityiskohtia, jotka vaativat julkista keskustelua, ja mieluiten pikaisia korjauksia ennen säätiön perustamista. (Sääntöluonnos on saatavilla Tampereen kaupunginvaltuuston sivuilta: http://tampere.cloudnc.fi/fi-FI/Toimielimet/Kaupunginhallitus/Kokous_1042017/Saatioyliopiston_perustamiskirjan_ja_saa(17266) .)

Ensimmäinen tällainen ongelmakohta on §10 kirjaus, missä rehtori tai hänen määräämänsä toimii yliopiston monijäsenisen toimielimen (konsistorin) puheenjohtajana. Tämä sotii yliopiston itsehallintoa vastaan, ja tämä maininta tuleekin poistaa säätiön säännöistä. Myös asiassa konsultoidut perustuslakiasiantuntijat ovat todenneet, että konsistorin puheenjohtajana ei voi toimia sen ulkopuolinen henkilö. Kyse on periaatteellisesti tärkeästä asiasta: monijäseninen toimielin on se foorumi, mihin jäsenet valitaan lain mukaan kolmikannalla, eli siellä ovat edustettuna yliopiston professorit, muu henkilöstö ja opiskelijat – se on paikka missä kuuluu tiedeyhteisön oma ääni. Konsistori on hallituksen valitsemalle rehtorille keskeinen keskustelupartneri, mutta koska konsistori valitsee hallituksen, joka puolestaan nimittää rehtorin, ei rehtori voi siitäkään syystä toimia yliopistoyhteisöä edustavan konsistorin puheenjohtajana. (Edit: OKM toimitti allekirjoitustilaisuuteen kutsutuille 5.4.  päivätyn version säätiön sääntöluonnoksesta, missä tämä kohta olikin jo muutettu muotoon “Konsistorin puheenjohtajasta määrätään yliopiston johtosäännössä.” – Erittäin järkevä ja tervetullut korjaus!)

Toinen ongelmallinen kohta on §16 siirtymäsäännösten kirjaus, missä säätiön ensimmäisen hallituksen nimittävät nykyisten korkeakoulujen hallitukset, nimityskomitean esityksestä, siten että käytännön nimitysvalta on siirretty yliopiston ja tiedeyhteisön ulkopuolelle. Kuudesta nimityskomitean jäsenestä kolme olisi säätiön perustajien esittämiä henkilöitä, kolme yliopistoyhteisön, ja komitean puheenjohtajana mahdollisessa äänestystilanteessa ratkaisevassa roolissa toimisi perustajien, eli ulkopuolisten asettama jäsen. Tämä siirtäisi uuden yliopiston perustamisen ja sen linjausten muodostamisen kannalta strategisesti tärkeässä vaiheessa vallan pois yliopistojen ja tiedeyhteisön piiristä. Tämä kohta on tärkeä korjata yliopistolain mukaiseksi.

Kolmantena kohtana heti alussa, §2 säätiön tarkoituksen muotoiluun on tehty edellissyksyn sääntöluonnoksista poikkeava lisäys, missä uuden säätiöyliopiston toiminta esitetään perustuvaksi ”Tampereen yliopiston ja Tampereen teknillisen yliopiston tutkimukseen ja opetukseen, muun muassa korkeatasoiseen lääketieteeseen, taloustieteeseen, tekniikkaan ja yhteiskuntatieteisiin sekä näistä johdettaviin uudenlaisiin tutkimuksen ja opetuksen yhdistelmiin”. Tämä kirjaus on tarpeeton, koska se ei aidosti kata kaikkia niitä monia vahvoja tieteenaloja, joita näissä yliopistoissa (erityisesti Tampereen yliopistossa) harjoitetaan. Se on myös omiaan luomaan vaikutelman, että tässä pyritään määrittelemään uudelle yliopistolle profiilia ja painoaloja tavalla, joka kuuluu yliopiston oman päätäntävallan ja tieteen autonomian piiriin. Kohtaa voidaan halutessa jatkossa lukea siten, että säännöissä halutaan erikseen sulkea pois esimerkiksi humanististen tieteenalojen, tai kasvatustieteiden kaltaisten yhteiskunnan ja kulttuurimme kannalta olennaiset alat uuden monialayliopiston tulevaisuuden profiilista. Tämä olisi uutta yliopistoa ja sen monitieteistä potentiaalia merkittävästi kaventava ja heikentävä linjaus.

On erittäin harmillista, että yliopistoyhteisö ei ole voinut avoimesti osallistua säätiön lähtökohdista ja säännöistä käytävään keskusteluun. Lisäksi voi vain arvailla niitä tarkoitusperiä, miksi taustavalmisteluissa on päädytty esittämään säätiön sääntöihin sellaisia kirjauksia, mitä niihin ei yliopistolain ja tieteen autonomian mukaan kuulu. Aviisin yllä mainitussa haastattelussahan yliopistojen rehtorit korostivat, että uuden korkeakoulusäätiön säännöt ovat perustajien ja ministeriön välinen asia, joihin he eivät halua ottaa kantaa. Perustuslakiasiantuntijoiden kantaan nojaten Tampereen yliopiston puolelta myös korostetaan, että ristiriitatilanteissa yliopiston johtosääntö ylittää säätiön säännöt. Yliopiston toimintaan pitäisikin tehdä yksityiskohtaisempia linjauksia vain johtosäännössä, joka on valmisteltu yliopistolain ja yliopiston autonomian mukaisessa järjestyksessä. Kaikki edellä mainitut ongelmalliset yksityiskohdat ovatkin säätiön säännöissä täysin turhia lisäyksiä.

Nyt sääntöihin tutustuttuani oma henkilökohtainen kantani on, että parasta olisi korjata säätiön säännöistä nämä muutamat kauneusvirheet, ja perustaa vahva uusi tiede- ja opetusyliopisto sellaisille lähtökohdille, missä ei heti alkumetreillä ole pahoja valuvikoja. Asiantuntijat pystyvät epäilemättä jäljellä olevat muutamat ongelmakohdat korjaamaan tarvittaessa hyvin nopeasti, jos vain riittävää tahtoa perustajien ja ministeriön keskuudesta löytyy. Seuraavassa vaiheessa tämä keskustelu tulee käytäväksi ennen kaikkea Tampereen kaupunginhallituksessa, missä toivottavasti tehdään sellaisia päätöksiä, jotka kestävät tulevaisuudessa tehtävät kriittiset tarkastelut. Tarkennusten ja sääntöjen korjausten jälkeen uuden yliopiston rakennustyössä on mahdollista edetä selkeissä, yliopistolain takaamissa puitteissa. Kyse on mitä suurimmassa määrin luottamuksen synnyttämisestä kolmen erilaisen, eri tieteenaloja ja johtamiskulttuureja edustavan korkeakoulun yhdistyessä. Nyt nämä muutamat kyseenalaiset kirjaukset täysin turhaan uhkaavat nostaa kysymysmerkkejä hankkeen ja yliopiston tulevan menestyksen ylle.

(Edit: Tampereen kaupunginhallituksen asian käsittelystä ja siellä tehdystä ponsi-kirjauksesta kirjoittaa Jaakko Mustakallio täällä: http://jaakkomustakallio.fi/tampere-3-etenee-parempaan-suuntaan/)

Tietokone, henk.koht. (On personal computers)

Thinkpad X1 Yoga (photo © by Lenovo)

[Note in Finnish about the use and evolution of personal computers] Henkilökohtaiset tietokoneet ovat verrattain nuori ilmiö, ja ajatus yhden ihmisen käyttöön suunnitellusta ja hankitusta tietokoneesta olisi ollut vielä 1950- ja 60-luvuilla lähes käsittämätön. Tietotekniikan hinta on kuitenkin alentunut, ja samalla ajatus tietokoneesta on ihmiskeskeistynyt. Kalliit tieteelliset ja taloushallinnon laskimet ovat mukautuneet ja mukautettu ihmisten mitä moninaisimpien tarpeiden palvelukseen. Tietokone tallentaa ja arkistoi tekstiä ja dataa, hallitsee digitaalisia kalentereita, mutta myös taipuu tuottamaan ja toistamaan musiikkia, kuvia ja mallintamaan vuorovaikutteisia virtuaalisia tiloja. Yhdistyneenä tietoverkkoihin, tietokoneet ovat monikanavaisia ja monimuotoisia viestimiä, itseilmaisun ja sosiaalisen järjestäytymisen välineitä, arkisen elämän, viihteen ja taiteen näyttämöitä.

Apple I (photo by By Ed Uthman – originally posted to Flickr as Apple I Computer, CC BY-SA 2.0)

Kun 80-luvulla aloittelin silloisten kotitietokoneiden parissa tietokoneharrastusta, mahdollisuudet olivat avoinna tietotekniikan kehityksen osalta moneen suuntaan. Erilaisia kokeiluja, tuotekategorioita ja digitaalisten sisältöjen lajityyppejä kehiteltiin aktiivisesti. 1990- ja 2000-lukujen aikana tuntui ajoittain siltä, että merkittävät innovaatiot olivat jo takanapäin, ja mielenkiinto rajoittui lähinnä siihen, milloin 286:n jälkeen tulee 386 ja 486, ja mikä Windows 3.1:sta seuraavan käyttöjärjestelmäversion nimeksi tulee.

Mobiililaitteet, ympäristöön sulautuva ja kaikkialla läsnäoleva tietotekniikka on muuttanut tätä perustilannetta niin, että nyt 2010-luvun lopulla tieto- ja viestintätekninen tulevaisuus vaikuttaa jälleen kiehtovalta. Samalla globaalit ongelmat ovat kuitenkin myös nousseet sellaiseen mittaan ja tietoisuuteen, että tietotekniikka itsessään vaikuttaa jossain määrin triviaalilta ja marginaaliseltakin aihepiiriltä. Sosiaalisen median kautta tapahtuva yhteiskunnallisen vastakkainasettelun kasvu ja julkisen keskustelun kriisi kuitenkin osaltaan todistavat myös siitä, kuinka merkittävällä tavalla viestinnän ja vuorovaikutuksen järjestämisen tekniikoillamme on syvällistä vaikutusta arkielämän ja yhteiskunnan kehitykseen.

OLPC: Kannettava tietokone jokaiselle lapselle -järjestön esituotantomalli (photo by “Fuse-Project”; OLPC-Wiki: “Walter”)

Koneiden kanssa keskustelu on myös vuoropuhelua oman, teknologisesti sävyttyneen ja rakentuneen minuutemme kanssa. Mikään laite mitä käytämme tänään, ei ole tietääkseni saapunut ulkoavaruudesta keskuuteemme, vaan kyse on ihmisenä olemisen laajennuksista, joita olemme itse kehitelleet ja joihin olemme syystä tai toisesta ripustautuneet. Kierros kodinkonemyymälässä tai autokaupassa jättää itselleni usein saman, hieman kummastuneen ja kunnioittavan tunnelman kuin esimerkiksi käynti kansatieteellisessä museossa, loputtoman monimuotoisesti kirjailtujen päähineiden tai toisistaan eri tavoin eroavien rukinlapojen keskellä. Ecce homo. Totuus löytyy uusimmasta automaattivaihteistosta.

Tänä vuonna ihmisillä jotka uhraavat aikaansa ja vaivojaan henkilökohtaisten tietokoneiden kehittämiseen, vaikuttaa olevan käsillä useita perustavia erimielisyyksiä ja vaihtoehtoisia kehityssuuntia sille, mitä tietokoneen tulisi meille olla ja merkitä. Osin kyse on henkilökohtaisen tietokoneen jäämisestä kehityksen sivuraiteelle: tietokoneiden pohdiskelua paljon suurempi osa energiastamme menee siihen kun yritämme taivuttaa käyttäytymistämme sellaiseen muotoon että Facebookin, Googlen tai Applen kaltaisten yritysten palveluihinsa kehittämät algoritmit paljastaisivat meille maailmasta ne kasvot joista olemme kiinnostuneita, ja samalla kuvastaisivat meitä itseämme toisille ihmisille siten kuin meistä hyvältä tuntuu. Tai siihen kun valitsemme uutta älypuhelinmallia ja siihen päivittäisen elämän kannalta olennaista valikoimaa mobiilisovelluksia.

Osa kehittäjistä pyrkii sekoittamaan tietokoneen ja mobiililaitteen välistä rajaa: hybridilaitteet kukoistavat. Osa pyrkii pitämään esimerkiksi kosketusnäyttöihin, hahmontunnistukseen ja puheohjaukseen liittyvät kehityskulut poissa henkilökohtaisten tietokoneiden rajoja ja olemusta hämärtämästä. Osa yrittää tehdä tietokoneesta mahdollisimman ohuen ja kevyesti kaikkialle mukana kulkevan, vaivattomasti auki sujahtavan ja päiväkausia yhdellä latauksella toimivan. Toisille henkilökohtainen tietokone on vain tietynlainen pääte pilvipalveluissa raksuttaviin toiminnallisuuksiin ja dataan – tietokone voi kulkea taskussa, ja sen käyttöliittymä korvassa. Yhdelle kehittäjäryhmälle puolestaan henkilökohtaisen tietokoneen tehokkuus on kaikki kaikessa, ja tavoitteena on pakata virtuaalitodellisuuden edellyttämää suorituskykyä myös kannettavan tietokoneen kehysten sisään, ja varustaa se liitännällä silmikkonäyttöön. Suuri joukko kehittäjiä ja valmistajia pyrkii tuomaan henkilökohtaisen tietokoneen hintaa niin alas, että se olisi kilpailukykyinen jopa edullisempien älypuhelintenkin kanssa, vaikka silläkin riskillä että pitkälle tingitty laite ei enää selviäisi vähääkään haastavammista tehtävistä tökkimättä. Toisiin pyrkimyksiin liittyy muotoilu, missä kestävyys ja käytännöllisyys ovat keskeisintä, toisissa puolestaan henkilökohtaista tietokonetta pyritään kehittämään paitsi elektroniikan, myös värien, viimeistelyn ja hienomekaanisen insinöörityön alueella niin sofistikoituneeksi ja yksilölliseksi kokonaisuudeksi kuin mahdollista.

Ben Shneiderman, Leonardo’s Laptop (2002) – sikäli kun tiedän, ei ole juurikaan tehty “cultural laptop studies”-tutkimusta sillä kriittis-analyyttisellä tutkimusotteella kuin Paul du Gay ym. “Story of Sony Walkman” -kirjassaan (1996)  – Schneiderman keskittyy ‘universal usability’-teemaan.

Hyötyrationaalinen tarve on vain yksi ulottuvuus ihmisen suhteessa teknologiaansa. Tosin, jos omat tähänhetkiset tarpeeni jos ottaa esimerkiksi, ollaan näissäkin nopeasti yhteensovittamattomien ristiriitojen viidakossa. Pitkät työpäivät, pienet näytöt, pieni teksti ja helposti väsyvät silmät ovat yhdistelmä, mihin parhaiten vastaisi laite, missä näyttö on vähintään 40-50-tuumainen, ja sitä katsottaisiin ainakin puolentoista, parin metrin etäisyydeltä. Toisaalta liikkuvassa työssä mukana kannettavan laitteen olisi tärkeää olla mahdollisimman kompakti, kevyt ja toisaalta siinä pitäisi olla akku jonka varassa kymmentuntinenkin työrupeama sujuu tarvittaessa ilman yhteyttä seinäpistokkeeseen. Niin kauan kuin nämä laitteet eivät osaa vielä lukea ajatuksia, mahdollisimman monipuoliset mahdollisuudet itseilmaisuun ja vuorovaikutukseen erilaisten sisältöjen luomisessa olisivat tärkeitä: mahdollisuus paitsi kirjoittaa ergonomialtaan korkealuokkaisella mekaanisella näppäimistöllä (siksikin koska sanelu ei vielä täysin luotettavasti toimi), piirtää ja värittää, maalata ja valokuvata, myös tallentaa hyvälaatuista videota ja ääntä suoraan laitteesta, esimerkiksi videoitujen luentojen ja neuvottelujen tarpeisiin. Pelien, virtuaalimaailmojen, multimedian, analyysiohjelmistojen ja erilaisten kehitystyökalujen parissa tehtävä työ puolestaan edellyttäisi laskentatehoa, muistia ja korkearesoluutioisia näyttötiloja, jotka ovat ristiriidassa vaikkapa keveyden ja pitkän akunkeston kanssa. Henkilökohtainen tietokone on siis kameleonttimaisena, digiaikakauden “kaiken teknologian” leikkauspisteenä ja pullonkaulana sikäli epäkiitollisessa asemassa, että oli se mitä tahansa, se aina sulkee pois jotain muuta, mitä henkilökohtainen tietokone myös mielellään saisi olla – ainakin joskus, jonakin päivänä ja hetkenä.

Vaikka mainostajat mielellään korostavat pyrkimystä täydellisyyteen ja kaupustelemiensa tuotteiden tinkimättömyyttä mahdollisimman monella osa-alueella, niin kehittäjät kuin useimmat käyttäjät ymmärtävät että henkilökohtainen tietokone on aina jossain määrin epätyydyttävä kompromissi. Sitä leimaa puute ja vajavaisuus – jotain joka usein paljastuu kaikkein kiusallisimmalla hetkellä, kun akku loppuu, teho osoittautuu riittämättömäksi, tai kun riittämättömät ohjauslaitteet ja näytön ominaisuudet tuskastuttavat jännetuppitulehduksen ja päänsäryn piinaamaa käyttäjää. Jotkut yrittävät luopua tietokoneista kokonaan, käyttää jotain muuta tekniikkaa, tai ottaa etäisyyttä kaikkeen tietotekniikkaan. Totuus kuitenkin on, että olemme edelleen lähes jokaisena päivänä myös henkilöitä, joita meidän jokapäiväinen henkilökohtainen tietokoneemme määrittää, rajoittaa, kiusaa ja ajoittain myös palkitsee. Tietokoneen monet mahdollisuudet tuovat esiin omat rajoituksemme – katsot tietokonetta, ja tietokoneestasi katsoo takaisin sinä itse.

Book One (photo © by Porsche Design)

Future of interfaces: AirPods

Apple AirPods (image © Apple).

I am a regular user of headphones of various kinds, both wired and wireless, closed and open, with noise cancellation, and without. The latest piece of this technology I invested in are the “AirPods” by Apple.

Externally, these things are almost comically similar to the standard “EarPods” they provide with, or as the upgrade option for their mobile devices. The classic white Apple design is there, just the cord has been cut, leaving the connector stems protruding from the user ears, like small antennas (which they probably also indeed are, as well as directional microphone arms).

There are wireless headphone-microphone sets that have slightly better sound quality (even if AirPods are perfectly decent as wireless earbuds), or even more neutral design. What is here interesting in one part is the “seamless” user experience which Apple has invested in – and the “artificial intelligence” Siri assistant which is another key part of the AirPod concept.

The user experience of AirPods is superior to any other headphones I have tested, which is related to the way the small and light AirPods immediatelly connect with the Apple iPhones, detect when they are placed into the ear, or or not, and work hours on one charge – and quickly recharge after a short session inside their stylishly designed, smart battery case. These things “just work”, in the spirit of original Apple philosophy. In order to achieve this, Apple has managed to create a seamless combination of tiny sensors, battery technology, and a dedicated “W1 chip” which manages the wireless functionalities of AirPods.

The integration with Siri assistant is the other key part of AirPod concept, and the one that probably divides user’s views more than any other feature. A double tap to the side of an AirPod activates Siri, which can indeed understand short commands in multiple languages, and respond to them, carrying out even simple conversations with the user. Talking to an invisible assistant is not, however, part of today’s mobile user cultures – even if Spike Jonze’s film “Her” (2013) shows that the idea is certainly floating around today. Still, mobile devices are often used while on the move, in public places, in buses, trains or in airplanes, and it is just not feasible nor socially acceptable that people carry out constant conversations with their invisible assistants in this kind of environments – not yet today, at least.

Regardless of this, Apple AirPods are actually to a certain degree designed to rely on such constant conversations, which both makes them futuristic and ambitious, but also a rather controversial piece of design and engineering. Most notably, there are no physical buttons or other ways for adjusting volume in these headphones: you just double tap to the side of AirPods, and verbally tell Siri to turn the volume up, or down. This mostly works just fine, Siri does the j0b, but a small touch control gesture would be just so much more user friendly.

There is something engaging in testing Siri with the AirPods, nevertheless. I did find myself walking around the neighborhood, talking to the air, and testing what Siri can do. There are already dozens of commands and actions that can be activated with the help of AirPods and Siri (there is no official listing, but examples are given in lists like this one: https://www.cnet.com/how-to/the-complete-list-of-siri-commands/). The abilities of Siri still fall short in many areas, it did not completely understand Finnish I used in my testing, and the integration of third party apps is often limited, which is a real bottleneck, as these apps are what most of us are using our mobile devices for, most of the time. Actually, Google and the assistant they have in Android is better than Siri in many areas relevant for daily life (maps, traffic information, for example), but the user experience of their assistant is not yet as seamless or integrated whole as that of Apple’s Siri is.

All this considered, using AirPods is certainly another step into the general developmental direction where pervasive computing, AI, conversational interfaces and augmented reality are taking us, in good or bad. Well worth checking out, at least – for more in Apple’s own pages, see: http://www.apple.com/airpods/.