Menu

Item gefilterd op datum: december 2012

Visuele attentie hersenactiviteit

De bottleneck van visuele informatie is nog duidelijker dan de in de vorige paragraaf genoemde bottlenecks. Het netvlies varieert erg in zijn secuurheid, met MAXIMAle secuurheid in een klein gebied genaamd de fovea. Hoewel onze ogen een groot deel van het visuele veld registreren, registreert onze fovea daar slechts een klein deel van. Tijdens het kiezen van een deel waarop we ons focussen (met de ogen), kiezen we ook om maximale visuele verwerkings bronnen te geven aan het te verwerken deel van het visuele veld. De rest van de te verwerken bronnen van het visuele veld verzwakken we. Het is niet altijd zo dat waar we ons visueel op focussen, identiek is met het deel van het

visuele dat verwerkt wordt door de fovea. Mensen kunnen zich fixeren op een deel van het visuele veld (waar op dat moment dan de fovea is) en tegelijkertijd aandacht schenken aan een niet-foveaal gebied.

We schenken aandacht aan een enkel deel van het visuele veld en we fixeren ons meestal (niet altijd) aan het deel van het visuele veld waar we aandacht aan schenken.

Lees meer...

De concentreatie theorie

Om met de hiervoor genoemde resultaten om te kunnen gaan is het Broadbent model aangepast en is bekend geworden als attenuation theory. Dit model veronderstelt dat bepaalde boodschappen verslapt worden maar niet helemaal weggefilterd worden op basis van hun fysieke eigenschappen. In een dichotic listening task worden de signalen van het oor waar geen aandacht aan besteed wordt geminimaliseerd, maar niet vernietigd. Bij de semantische selectie kan elke boodschap gehoord worden, of er nou aandacht aan besteed wordt of niet* (*het laatste kost dan wel meer moeite).

Een andere uitleg is die van de late selection theory waarbij men er vanuit is gegaan dat alle informatie volledig onverzwakt wordt verwerkt. Volgens deze theorie zitten de beperkingen dus niet in het perceptie systeem, maar in het response systeem. Dit verschil, tussen de attenuation theory en de late selection theory is goed weergegeven in fig. 3.4 blz. 80. We kunnen selecteren welk bericht verwerkt wordt op de basis van zijn fysieke eigenschappen. Als we niet snel aandacht aan het bericht schenken, zal het verloren gaan.

Lees meer...

De filter theorie

Eén van de early selection theorieën is de filter theory. De basis veronderstelling hierbij is dat informatie door het systeem komt totdat een bottleneck is bereikt. Op dat moment moet kiest de proefpersoon op basis van fysieke kenmerken welke boodschap verwerkt wordt. De persoon moest de andere informatie wegfilteren. Bij deze theorie gaan we dus uit van fysieke karakteristieken en bij de dichotic task wordt er verondersteltr dat er met twee oren geluisterd wordt, maar dat op een gegeven moment de persoon overschakelt op één oor. Berichten komen door via verschillende zenuwen en bepaalde cellen in the audtitory cortex zeggen aan welke zenuwen wij aandacht moeten schenken. Vroege auditoriele gebieden van de cortex vertonen versterking van het auditoriele signaal die van het oor komen waar de luisteraar zijn aandacht aan schenkt. Het lijkt erop dat een luisteraar het signaal kan laten versterking dat van het oor komt waar hij zijn aandacht aan schenkt.

Deze resultaten geven duidelijk aan dat mensen kunnen kiezen op basis van fysieke karakteristieken aan welke boodschappen zij hun aandacht schenken. Toch kan een boodschap ook geselecteerd worden op semantische karakteristieken. Denk aan het voorbeeld van de cocktail-party waar je naam genoemd wordt, of kijk op blz. 77 en 78 naar de illustraties van een experiment. Uit deze experimenten kwam naar voren dat men soms gebruikt maakt van de semantische karakteristieken en soms van de fysieke karakteristieken van een boodschap.

De filter theory van Broadbent veronderstelt dat we fysieke features gebruiken om een boodschap te selecteren om te verwerken, maar er is aangetoond dat proefpersonen ook in staat waren de semantische content te gebruiken.

Lees meer...

Auditory Attention

Tijdens het onderzoek naar de auditory attention staat de in-tweeën-verdeelde-luister-taak (dichotic listening task) centraal. In een typisch dichotic listening experiment, krijgen de proefpersonen in elk oor een boodschap te horen en is het de bedoeling dat zij één van de twee boodschappen “schaduwen” (dus ook gewoon één van de twee boodschappen herhalen).

Psychologen hebben ontdekt dat erg weinig over de onbedoelde boodschap verwerkt is in de schaduw-taak. Nadat de boodschap gehoord te hebben konden de proefpersonen niets meer over het geluid op de band vertellen. Dit onderzoek ondersteunt in feite de early selection theory waarbij informatie geselecteerd wordt voordat de boodschap ook maar een enkele bewerking heeft ondergaan.

Lees meer...

Attentie hersenen

Psychologen veronderstellen dat er een seriële bottleneck bestaat in de menselijke informatie verwerking, het punt waarop het niet meer mogelijk is om alles parallel te blijven verwerken.

Een belangrijke vraag hierbij is, wanneer de bottleneck nou ontstaat. Is dat voor- of nadat we de stimulus ontvangen, is het nadat we de stimulus ontvangen, maar voordat de motorisch actie plaats heeft? Verschillende theorieën over wanneer de selectie van “informatie” plaatsvindt, worden early selection of late selection genoemd (afhankelijk van hoe vroeg of laat de bottleneck plaatsvindt). Een andere onderzoeksvraag is, als er een bottleneck is, hoe weet ons cognitief systeem dan welke stukjes het moet negeren en welke het moet accepteren?

Er ontstaan seriële bottlenecks tijdens de informatie verwerking waarbij het op een gegeven moment niet meer mogelijk is om dingen parallel te doen.

Lees meer...

Context en spraak hersenactiviteit

Het phonemic-restoration effect betekent dat in een zin waar een phoneme wordt vervangen door een PIEP, men onbewust de juiste letter hiervoor invult: Bijna niemand hoort dat er in “Ik denk niet dat *PIEP*ullie nu een piep horen” een letter werd vervangen door een andere toon. Slechts 1 op de 20 mensen zegt een toon te hebben gehoord,

maar kunnen niet aanwijzen waar precies. Je vervangt piepjes e.d. ook automatisch als het begrip van het woord pas uit de volgende woorden blijkt:

It was found that the *P*eel was on the shoe

It was found that the *P*eel was on the orange

It was found that the *P*eel was on the axle

Bijna iedereen hoort respectievelijk ‘heel’, ‘peel’ en ‘wheel’, hoewel de zinnen identiek waren bij het desbetreffende woord (de drie zinnen zijn niet driemaal ingesproken, het is steeds dezelfde intonatie etc etc, behalve het allerlaatste woord, wat er daarna aanvastgeplakt is – niet hoorbaar).

Identificatie van woorden is dus niet metéen maar kan afhangen van de perceptie van volgende woorden.

Context and the Recognition of Faces and Scenes

Bij stimuli die er helemaal ‘ingebakken’ zijn, is het heel moeilijk om deze te herkennen zonder de context. Op blz.65 staat een plaatje van een gezicht, met een aantal onderdelen: neus, oor, mond. Wanneer slechts contouren worden gegeven, herkennen wij het slecht. Pas als het in context wordt gegeven (of de onderdelen gedetailleerd worden getekend), zien we wat het voorstelt.

Ook bij complexe visuele scenes speelt context een rol: proefpersonen kregen kort een normaal plaatje te zien, of hetzelfde in stukken geknipte (en door elkaar gehusselde) plaatje.

Wanneer daarna werd gevraag aan te geven wat zich op een bepaalde plaats bevond, waren de personen die het normale (coherente) plaatje hadden gezien veel beter dan de anderen.

Context wordt dus, zoals bij tekst- en spraakherkenning, blijkbaar meegenomen om dingen te identificeren.

Lees meer...

Contecxt en patroonherkenning hersenen

Patroonherkenning kan zowel gebeuren door de informatie die in de fysieke stimulus zit, als door de context waarin de stimulus wordt gegeven. Zie ‘THE CAT’ op blz. 63.

Wanneer context of algemene kennis van de wereld onze preceptie sturen, noemen we dit topdown processing. Een hoger-level kennis helpt mee bij het interpreteren van lagere (simpele perceptie).

Wanneer de fysieke kenmerken van de stimulus zélf onze perceptie sturen, noemen we dit bottom-up processing. Je gaat van de simpelste features van een stimulus steeds hoger totdat je het begrijpt of herkent (het hoogste level).

Een experiment van Reicher & Wheeler liet zien hoe top-down effecten werken. Dit gebeurde in 2 groepen:

1. Men zag heel kort een ‘D’ of een ‘K’. Daarna werd gevraagd welke letter ze hadden gezien.

2. Men zag heel kort ‘WORK’ of ‘WORD’. Daarna werd gevraagd welk woord ze hadden gezien.

Hoewel het in beide gevallen slechts verschilt in 1 letter, was groep 2 10% accurater in het kiezen van het juiste woord. Eigenlijk vreemd, aangezien ze in theorie wel 4 keer zoveel stimuli (letters) te verwerken hadden. Context geeft dus de doorslag. Dit wordt het word-superiority effectgenoemd. Dat een woord beter wordt herkend heeft waarschijnlijk te maken met het feit dat als we ‘WOR’ en een beetje van de laatste letter herkennen, wij infereren dat het dan wel WORD had moeten zijn. We vullen dus de blanks in op basis van context (net zoals je bij een engelse tekst een onbekend woord niet hoeft op te zoeken, maar er gewoon overheen leest aangezien de betekenis uit de zin is te halen). Ik xan xijxooxbexld xlkx dexde xetxer xit xen xin xerxanxen xoox eex x, en xe zxl hxt nxg sxeexs bxgrxjpxn.

Lees meer...

Categorische perceptie hersenen

Categorische perceptie verwijst naar:

- de perceptie van stimuli alsof ze behoren tot strikt gescheiden (dinstincte) categorieën,

- het falen om binnen een categorie gradaties in de stimuli waar te nemen.

Dit beteken dus dat wij iets horen en dat meteen indexeren in of deze of die categorie, en dat wij niet het onderscheid horen tussen klanken binnen een categorie (hoewel deze klanken dus wel (minieme) verschillen kunnen hebben).

Bij het uitspreken van phonemes zijn er twee mogelijkheden:

1. de gesloten lippen gaan open en lucht wordt vrijgelaten

2. de stembanden gaan trillen (voicing)

Wij delen een ‘p’ in een categorie en een ‘b’ in een andere categorie, aangezien er dus iets met bovenstaande mogelijkheden verschilt. Wat blijkt: bij een ‘b’ gebeuren [1] en [2] simultaan, terwijl bij een ‘p’ [2] pas 60 ms (milliseconden) volgt ná [1] (het tijdsverschil tussen stap [1] en [2] wordt onset-time genoemd.

Experimenten hebben uitgewezen dat men voor ca. 30ms een klank categoriseerd als een ‘b’ en na 30 ms dezelfde klank als een ‘p’.

Door deze scherpe overgang tussen unvoiced en voiced phonemes, wordt de perceptie van deze feature categorical perception genoemd.

Twee studies:

1. Studdert-Kennedy: men vindt het heel moeilijk om verschillen te horen tussen b’s en p’s die een verschillende onset-time hebben (p’s kunnen dan worden geïdentificeerd als b’s en andersom). Men kan echter wél goed onderscheid maken als de onset-time constant is (dus als de b altijd 10ms en de p altijd 40ms is).

2. Eimas & Corbit: mensen krijgen heel vaak ‘da’ te horen. Dit is dus een steeds herhalende ‘voiced’ medeklinker. Daarna krijgt men ‘ba’ en ‘pa’ te horen. Het enige verschil tussen deze twee klanken is 1 feature, namelijk voicing. Wat blijkt: door reperterende ‘da’ (een voiced klank) zijn de receptoren voor voiced klanken afgestompt, zodat men veel vaker zei ‘pa’ (unvoiced) te horen, terwijl dat eigenlijk een ‘ba’-klank (voiced) was.

Lees meer...

Feature Analysis of Speech

Phonemes bestaan uit drie (en misschien meer) features:

Consonantal feature: the quality in the phoneme of having a consonantlike property (in contrast to vowels). Consonant betekent “spraak geproduceerd door een stop of tijdelijke stop van de adem” of “medeklinker” of “harmonieus. Het boek gaat hier verder niet op in, en het is dus een zeer vaag begrip.

Voicing: het gebruik maken van de stembanden bij het produceren van een klank. De letter ‘s’ in ‘sip’ is voiceless (geen gebruik van …), de letter ‘z’ in ‘zip’ is voiced.

Place of articulation: de plaats waar de klank geproduceerd woord door dit af te sluiten of af te schermen (met de tong).

Bilabial: lippen gesloten (bijv. letter ‘p’)

Labiodental: onderste lip tegen de ondertanden (‘f’)

Dental: tong drukt tegen de tanden (‘th’)

Alveolar: tong druk tegen de ‘alveolar’ richel net achter je boven-voortanden (‘t’)

Palatal: tong zit tegen gehemelte aan, net achter bovengenoemde richel (‘j’)

Velar: tong zit tegen achterste deel van gehemelte (velum) aan (‘k’)

Door ‘voicing’ en ‘place of articulation’ in een tabel te zetten, kan je phonemes classificeren.

Zie tabel 2.1 op blz.59 van het boek (niet echt nodig…)

Er zijn experimenten geweest naar het herkennen van features in spraak (Miller & Nicely). Ze lieten een aantal medeklinkers horen, inclusief lawaai/storing. De proefpersonen zeiden bij een ‘p’ veel vaker dat ze een ‘t’ hadden gehoord in plaats van een ‘d’. Dit komt volgens hen omdat ‘p’ en ‘t’ maar op 1 feature verschillen (place of art.), terwijl ‘p’ en ‘d’ op 2 features verschillen: place of art en voicing.

Lees meer...

Spraakherkenning hersenen

Spraak herkenning komt overeen met visuele (patroon)herkenning als we kijken naar het segmenteren van objecten die herkend moeten worden. Spraak kan echter niet zo duidelijk worden opgebroken als geschreven tekst of visuele informatie. Bij een continue stroom woorden, is het bijna onmogelijk de pauzes te horen die het eind van woorden markeren. Wij horen het in het Nederlands wel (hoewel het niet echt pauzes zijn, maar wij eigenlijk de illusie van woordbegrenzing horen), maar in een onbekende taal horen we één lange stroom klanken. Er zitten zelfs evenveel pauzes ín de woorden als tússen de woorden. Eén enkel woord kan opgebroken worden in kleine stukjes, genaamd phonemes. Een phoneme is de minimale unit van spraak wat kan resulteren in een verschil van het gesproken bericht. Voorbeeld: het woord ‘bat’ bestaat uit de phonemes ‘b’, ‘a’ en ‘t’, aangezien wanneer je elk stukje door een ander stukje (letter) vervangt, je een ander woord krijgt: ‘cat’, ‘bit’ en ‘ban’.

De Engelse spelling is zeer moeilijk, aangezien er geen perfecte ‘letter-to-sound’ correspondentie bestaat: in een andere context spreek je een letter weer net iets anders uit.

Problemen bij het herkennen van phonemes:

• Spraak is continu, dus het is moeilijk te herkennen waar een phoneme eindigt en waar de volgende begint. Vergelijk maar met (aan elkaar) geschreven tekst: waar eindigt de ene letter en begint de andere?

• Verschillende sprekers spreken dezelfde tekst (dezelfde rij phonemes) verschillend uit (zoals bij dialecten, maar zelfs ook bij hetzelfde accent).

Coarticulatie: wanneer je ‘big’ uitspreekt, is de ‘b’ net iets anders dan het uitspreken van de ‘b’ in het woord ‘bag’. De uitspraak van de ene phoneme wordt dus beïnvloedt door de context (een andere phoneme); twee phonemes mixen als het ware een beetje door elkaar heen.

Het wordt aangenomen dat spraakherkenning gebruikt maakt van een (apart) gespecialiseerd mechanisme in de hersenen. Misschien speelt (het linkerdeel van) de temporaalkwab hier een grote rol bij.

Lees meer...
Abonneren op deze RSS feed

Advies nodig?

Vraag dan nu een gratis en vrijblijvende scan aan voor uw website.
Wij voeren een uitgebreide scan en stellen een SEO-rapport op met aanbevelingen
voor het verbeteren van de vindbaarheid en de conversie van uw website.

Scan aanvragen