Changeset e7b7be3f in mainline for kernel/arch/sparc64/include


Ignore:
Timestamp:
2007-01-22T13:10:08Z (19 years ago)
Author:
Martin Decky <martin@…>
Branches:
lfn, master, serial, ticket/834-toolchain-update, topic/msim-upgrade, topic/simplify-dev-export
Children:
0f3fc9b
Parents:
62c63fc
Message:

asm volatile → asm volatile

Location:
kernel/arch/sparc64/include
Files:
3 edited

Legend:

Unmodified
Added
Removed
  • kernel/arch/sparc64/include/asm.h

    r62c63fc re7b7be3f  
    5252        uint64_t v;
    5353       
    54         __asm__ volatile ("rdpr %%pstate, %0\n" : "=r" (v));
     54        asm volatile ("rdpr %%pstate, %0\n" : "=r" (v));
    5555       
    5656        return v;
     
    6363static inline void pstate_write(uint64_t v)
    6464{
    65         __asm__ volatile ("wrpr %0, %1, %%pstate\n" : : "r" (v), "i" (0));
     65        asm volatile ("wrpr %0, %1, %%pstate\n" : : "r" (v), "i" (0));
    6666}
    6767
     
    7474        uint64_t v;
    7575       
    76         __asm__ volatile ("rd %%tick_cmpr, %0\n" : "=r" (v));
     76        asm volatile ("rd %%tick_cmpr, %0\n" : "=r" (v));
    7777       
    7878        return v;
     
    8585static inline void tick_compare_write(uint64_t v)
    8686{
    87         __asm__ volatile ("wr %0, %1, %%tick_cmpr\n" : : "r" (v), "i" (0));
     87        asm volatile ("wr %0, %1, %%tick_cmpr\n" : : "r" (v), "i" (0));
    8888}
    8989
     
    9696        uint64_t v;
    9797       
    98         __asm__ volatile ("rdpr %%tick, %0\n" : "=r" (v));
     98        asm volatile ("rdpr %%tick, %0\n" : "=r" (v));
    9999       
    100100        return v;
     
    107107static inline void tick_write(uint64_t v)
    108108{
    109         __asm__ volatile ("wrpr %0, %1, %%tick\n" : : "r" (v), "i" (0));
     109        asm volatile ("wrpr %0, %1, %%tick\n" : : "r" (v), "i" (0));
    110110}
    111111
     
    118118        uint64_t v;
    119119       
    120         __asm__ volatile ("rd %%fprs, %0\n" : "=r" (v));
     120        asm volatile ("rd %%fprs, %0\n" : "=r" (v));
    121121       
    122122        return v;
     
    129129static inline void fprs_write(uint64_t v)
    130130{
    131         __asm__ volatile ("wr %0, %1, %%fprs\n" : : "r" (v), "i" (0));
     131        asm volatile ("wr %0, %1, %%fprs\n" : : "r" (v), "i" (0));
    132132}
    133133
     
    140140        uint64_t v;
    141141
    142         __asm__ volatile ("rd %%softint, %0\n" : "=r" (v));
     142        asm volatile ("rd %%softint, %0\n" : "=r" (v));
    143143
    144144        return v;
     
    151151static inline void softint_write(uint64_t v)
    152152{
    153         __asm__ volatile ("wr %0, %1, %%softint\n" : : "r" (v), "i" (0));
     153        asm volatile ("wr %0, %1, %%softint\n" : : "r" (v), "i" (0));
    154154}
    155155
     
    162162static inline void clear_softint_write(uint64_t v)
    163163{
    164         __asm__ volatile ("wr %0, %1, %%clear_softint\n" : : "r" (v), "i" (0));
     164        asm volatile ("wr %0, %1, %%clear_softint\n" : : "r" (v), "i" (0));
    165165}
    166166
     
    173173static inline void set_softint_write(uint64_t v)
    174174{
    175         __asm__ volatile ("wr %0, %1, %%set_softint\n" : : "r" (v), "i" (0));
     175        asm volatile ("wr %0, %1, %%set_softint\n" : : "r" (v), "i" (0));
    176176}
    177177
     
    248248        uintptr_t unbiased_sp;
    249249       
    250         __asm__ volatile ("add %%sp, %1, %0\n" : "=r" (unbiased_sp) : "i" (STACK_BIAS));
     250        asm volatile ("add %%sp, %1, %0\n" : "=r" (unbiased_sp) : "i" (STACK_BIAS));
    251251       
    252252        return ALIGN_DOWN(unbiased_sp, STACK_SIZE);
     
    261261        uint64_t v;
    262262       
    263         __asm__ volatile ("rdpr %%ver, %0\n" : "=r" (v));
     263        asm volatile ("rdpr %%ver, %0\n" : "=r" (v));
    264264       
    265265        return v;
     
    274274        uint64_t v;
    275275       
    276         __asm__ volatile ("rdpr %%tpc, %0\n" : "=r" (v));
     276        asm volatile ("rdpr %%tpc, %0\n" : "=r" (v));
    277277       
    278278        return v;
     
    287287        uint64_t v;
    288288       
    289         __asm__ volatile ("rdpr %%tl, %0\n" : "=r" (v));
     289        asm volatile ("rdpr %%tl, %0\n" : "=r" (v));
    290290       
    291291        return v;
     
    300300        uint64_t v;
    301301       
    302         __asm__ volatile ("rdpr %%tba, %0\n" : "=r" (v));
     302        asm volatile ("rdpr %%tba, %0\n" : "=r" (v));
    303303       
    304304        return v;
     
    311311static inline void tba_write(uint64_t v)
    312312{
    313         __asm__ volatile ("wrpr %0, %1, %%tba\n" : : "r" (v), "i" (0));
     313        asm volatile ("wrpr %0, %1, %%tba\n" : : "r" (v), "i" (0));
    314314}
    315315
     
    325325        uint64_t v;
    326326       
    327         __asm__ volatile ("ldxa [%1] %2, %0\n" : "=r" (v) : "r" (va), "i" ((unsigned) asi));
     327        asm volatile ("ldxa [%1] %2, %0\n" : "=r" (v) : "r" (va), "i" ((unsigned) asi));
    328328       
    329329        return v;
     
    338338static inline void asi_u64_write(asi_t asi, uintptr_t va, uint64_t v)
    339339{
    340         __asm__ volatile ("stxa %0, [%1] %2\n" : :  "r" (v), "r" (va), "i" ((unsigned) asi) : "memory");
     340        asm volatile ("stxa %0, [%1] %2\n" : :  "r" (v), "r" (va), "i" ((unsigned) asi) : "memory");
    341341}
    342342
     
    344344static inline void flushw(void)
    345345{
    346         __asm__ volatile ("flushw\n");
     346        asm volatile ("flushw\n");
    347347}
    348348
     
    350350static inline void nucleus_enter(void)
    351351{
    352         __asm__ volatile ("wrpr %g0, 1, %tl\n");
     352        asm volatile ("wrpr %g0, 1, %tl\n");
    353353}
    354354
     
    356356static inline void nucleus_leave(void)
    357357{
    358         __asm__ volatile ("wrpr %g0, %g0, %tl\n");
     358        asm volatile ("wrpr %g0, %g0, %tl\n");
    359359}
    360360
  • kernel/arch/sparc64/include/atomic.h

    r62c63fc re7b7be3f  
    5858                a = *((uint64_t *) x);
    5959                b = a + i;
    60                 __asm__ volatile ("casx %0, %2, %1\n" : "+m" (*((uint64_t *)x)), "+r" (b) : "r" (a));
     60                asm volatile ("casx %0, %2, %1\n" : "+m" (*((uint64_t *)x)), "+r" (b) : "r" (a));
    6161        } while (a != b);
    6262
     
    9999        volatile uintptr_t x = (uint64_t) &val->count;
    100100
    101         __asm__ volatile ("casx %0, %2, %1\n" : "+m" (*((uint64_t *) x)), "+r" (v) : "r" (0));
     101        asm volatile ("casx %0, %2, %1\n" : "+m" (*((uint64_t *) x)), "+r" (v) : "r" (0));
    102102
    103103        return v;
     
    111111        volatile uintptr_t x = (uint64_t) &val->count;
    112112
    113         __asm__ volatile (
     113        asm volatile (
    114114        "0:\n"
    115115                "casx %0, %3, %1\n"
  • kernel/arch/sparc64/include/barrier.h

    r62c63fc re7b7be3f  
    4040 */
    4141#define CS_ENTER_BARRIER()                              \
    42         __asm__ volatile (                              \
     42        asm volatile (                          \
    4343                "membar #LoadLoad | #LoadStore\n"       \
    4444                ::: "memory"                            \
    4545        )
    4646#define CS_LEAVE_BARRIER()                              \
    47         __asm__ volatile (                              \
     47        asm volatile (                          \
    4848                "membar #StoreStore\n"                  \
    4949                "membar #LoadStore\n"                   \
     
    5252
    5353#define memory_barrier()        \
    54         __asm__ volatile ("membar #LoadLoad | #StoreStore\n" ::: "memory")
     54        asm volatile ("membar #LoadLoad | #StoreStore\n" ::: "memory")
    5555#define read_barrier()          \
    56         __asm__ volatile ("membar #LoadLoad\n" ::: "memory")
     56        asm volatile ("membar #LoadLoad\n" ::: "memory")
    5757#define write_barrier()         \
    58         __asm__ volatile ("membar #StoreStore\n" ::: "memory")
     58        asm volatile ("membar #StoreStore\n" ::: "memory")
    5959
    6060/** Flush Instruction Memory instruction. */
     
    7171         */
    7272         
    73         __asm__ volatile ("flush %o7\n");
     73        asm volatile ("flush %o7\n");
    7474}
    7575
     
    7777static inline void membar(void)
    7878{
    79         __asm__ volatile ("membar #Sync\n");
     79        asm volatile ("membar #Sync\n");
    8080}
    8181
Note: See TracChangeset for help on using the changeset viewer.