På flera ställen har jag upplevt att ljusstyrkan skiftar markant upp och ner med kanske 15-30 sekunders mellanrum när spottarna är ordentligt nerdimmade. Det är i alla fall mest påtagligt då. Det har varit både 230- och 12-volts lampor. Vad kan detta bero på, och vad gör man för att undvika det?
 
Ingen aning men har lite teorier i allafall :)

Det jag kan tänka mig är att när det är nerdimmat så är det lägre spänning i trådarna. Vid lägre spänning så blir det procentuella spänningsfallet högre per meter tråd. Fast det skulle bara förklara att spottar längst från dimmern skulle lysa svagare.
Iom att du säger att det är 15-30 sekunders mellanrum så kan det vara så att trådarna agerar som kondensatorer och med spolar i lamporna och dimmer generera cykliska "dippar".

En annan teori är att det kan vara spänningsfall under en period då exempelvis värmepannan kör igång och om 240 V då dippar till 220 V så går det ner med 9%
Om då en transformator ska ta ner 240 V till 12 V så är det en faktor 20 som den tar ner spänningen med. En dipp då skulle då innebära att spänningen på lamporna gick ner till 11 V istället för 12 V.
Om samma transformator (dimmer) då är dimmat så den ger lampan 5 V så skulle dippen innebära att spänningen gick ner till 4.5 V. Tror att man märker en större skillnad i ljusstyrkan om det går ner en 0.5 V (5 V till 4.5 V) när lampan är sval än 1 V (12 V till 11 V) när man är lampan är så varm som den ska vara vid nominell spänning.
 
Jag skulle nog mest tro på den sista av dina teorier, men har kikat så att det inte ligger någon last på anläggningen som skulle kunna ge sådant spänningsfall. Alla stora förbrukare har varit avstängda och detta är, enligt de som bor där, något som sker alltid och på samma sätt hela tiden.
 
Vad har du för dimmer?

Märke och typ, billiga dimmrar är sällan bra.
 
Vet inte vad det var för märke, men i båda fallen köptes de genom elektrikern för ganska dyra pengar, så jag tror inte att de är några skitgrejer.
 
Det brukar ju anges en min. belastning på dimrar. Om man dimrar ner mycket så kanske den gränsen underskrids (även om lampornas märkeffekt är tillräckligt stor)?

Om dimrar
 
Låter i och för sig konstigt, borde de inte vara konstruerade så att minimibelastningen gäller över hela dimningsspektrat, så att säga?
 
Jo, så borde det ju vara.
 
Problemet är att det finns någon periodisk störning på elnätet som påverkar kurvformen på sinuskurvan. Dimmern väntar en stund efter nollgenomgången inan den tänder TRIAC:en så att lampan får ström.

Finns det då en störning som påverkar fördröjningen så kommer ljuset att variera i takt med störningen.

Är det då en störning som förlänger fördröjningen samtidigt som spänningen blir lägre så får man dubbel effekt.

Prototypen
 
Jag förstår inte helt vad du skriver, men det låter som en kunnig förklaring.. :)

Finns det något man kan göra åt detta, genom kompensation hellre än att föröka hitta störningen?
 
Vi vill skicka notiser för ämnen du bevakar och händelser som berör dig.