]> git.lyx.org Git - features.git/blobdiff - boost/boost/smart_ptr/detail/sp_counted_base_gcc_x86.hpp
boost: add eol property
[features.git] / boost / boost / smart_ptr / detail / sp_counted_base_gcc_x86.hpp
index d357d31a6f3e8ee92a0c002f9e13959530b7071d..4d7fa8d4ab3ea0c03405388819bc6ddb6e330cb1 100644 (file)
-#ifndef BOOST_SMART_PTR_DETAIL_SP_COUNTED_BASE_GCC_X86_HPP_INCLUDED\r
-#define BOOST_SMART_PTR_DETAIL_SP_COUNTED_BASE_GCC_X86_HPP_INCLUDED\r
-\r
-// MS compatible compilers support #pragma once\r
-\r
-#if defined(_MSC_VER) && (_MSC_VER >= 1020)\r
-# pragma once\r
-#endif\r
-\r
-//\r
-//  detail/sp_counted_base_gcc_x86.hpp - g++ on 486+ or AMD64\r
-//\r
-//  Copyright (c) 2001, 2002, 2003 Peter Dimov and Multi Media Ltd.\r
-//  Copyright 2004-2005 Peter Dimov\r
-//\r
-//  Distributed under the Boost Software License, Version 1.0. (See\r
-//  accompanying file LICENSE_1_0.txt or copy at\r
-//  http://www.boost.org/LICENSE_1_0.txt)\r
-//\r
-//\r
-//  Lock-free algorithm by Alexander Terekhov\r
-//\r
-//  Thanks to Ben Hitchings for the #weak + (#shared != 0)\r
-//  formulation\r
-//\r
-\r
-#include <boost/detail/sp_typeinfo.hpp>\r
-\r
-namespace boost\r
-{\r
-\r
-namespace detail\r
-{\r
-\r
-inline int atomic_exchange_and_add( int * pw, int dv )\r
-{\r
-    // int r = *pw;\r
-    // *pw += dv;\r
-    // return r;\r
-\r
-    int r;\r
-\r
-    __asm__ __volatile__\r
-    (\r
-        "lock\n\t"\r
-        "xadd %1, %0":\r
-        "=m"( *pw ), "=r"( r ): // outputs (%0, %1)\r
-        "m"( *pw ), "1"( dv ): // inputs (%2, %3 == %1)\r
-        "memory", "cc" // clobbers\r
-    );\r
-\r
-    return r;\r
-}\r
-\r
-inline void atomic_increment( int * pw )\r
-{\r
-    //atomic_exchange_and_add( pw, 1 );\r
-\r
-    __asm__\r
-    (\r
-        "lock\n\t"\r
-        "incl %0":\r
-        "=m"( *pw ): // output (%0)\r
-        "m"( *pw ): // input (%1)\r
-        "cc" // clobbers\r
-    );\r
-}\r
-\r
-inline int atomic_conditional_increment( int * pw )\r
-{\r
-    // int rv = *pw;\r
-    // if( rv != 0 ) ++*pw;\r
-    // return rv;\r
-\r
-    int rv, tmp;\r
-\r
-    __asm__\r
-    (\r
-        "movl %0, %%eax\n\t"\r
-        "0:\n\t"\r
-        "test %%eax, %%eax\n\t"\r
-        "je 1f\n\t"\r
-        "movl %%eax, %2\n\t"\r
-        "incl %2\n\t"\r
-        "lock\n\t"\r
-        "cmpxchgl %2, %0\n\t"\r
-        "jne 0b\n\t"\r
-        "1:":\r
-        "=m"( *pw ), "=&a"( rv ), "=&r"( tmp ): // outputs (%0, %1, %2)\r
-        "m"( *pw ): // input (%3)\r
-        "cc" // clobbers\r
-    );\r
-\r
-    return rv;\r
-}\r
-\r
-class sp_counted_base\r
-{\r
-private:\r
-\r
-    sp_counted_base( sp_counted_base const & );\r
-    sp_counted_base & operator= ( sp_counted_base const & );\r
-\r
-    int use_count_;        // #shared\r
-    int weak_count_;       // #weak + (#shared != 0)\r
-\r
-public:\r
-\r
-    sp_counted_base(): use_count_( 1 ), weak_count_( 1 )\r
-    {\r
-    }\r
-\r
-    virtual ~sp_counted_base() // nothrow\r
-    {\r
-    }\r
-\r
-    // dispose() is called when use_count_ drops to zero, to release\r
-    // the resources managed by *this.\r
-\r
-    virtual void dispose() = 0; // nothrow\r
-\r
-    // destroy() is called when weak_count_ drops to zero.\r
-\r
-    virtual void destroy() // nothrow\r
-    {\r
-        delete this;\r
-    }\r
-\r
-    virtual void * get_deleter( sp_typeinfo const & ti ) = 0;\r
-\r
-    void add_ref_copy()\r
-    {\r
-        atomic_increment( &use_count_ );\r
-    }\r
-\r
-    bool add_ref_lock() // true on success\r
-    {\r
-        return atomic_conditional_increment( &use_count_ ) != 0;\r
-    }\r
-\r
-    void release() // nothrow\r
-    {\r
-        if( atomic_exchange_and_add( &use_count_, -1 ) == 1 )\r
-        {\r
-            dispose();\r
-            weak_release();\r
-        }\r
-    }\r
-\r
-    void weak_add_ref() // nothrow\r
-    {\r
-        atomic_increment( &weak_count_ );\r
-    }\r
-\r
-    void weak_release() // nothrow\r
-    {\r
-        if( atomic_exchange_and_add( &weak_count_, -1 ) == 1 )\r
-        {\r
-            destroy();\r
-        }\r
-    }\r
-\r
-    long use_count() const // nothrow\r
-    {\r
-        return static_cast<int const volatile &>( use_count_ );\r
-    }\r
-};\r
-\r
-} // namespace detail\r
-\r
-} // namespace boost\r
-\r
-#endif  // #ifndef BOOST_SMART_PTR_DETAIL_SP_COUNTED_BASE_GCC_X86_HPP_INCLUDED\r
+#ifndef BOOST_SMART_PTR_DETAIL_SP_COUNTED_BASE_GCC_X86_HPP_INCLUDED
+#define BOOST_SMART_PTR_DETAIL_SP_COUNTED_BASE_GCC_X86_HPP_INCLUDED
+
+// MS compatible compilers support #pragma once
+
+#if defined(_MSC_VER) && (_MSC_VER >= 1020)
+# pragma once
+#endif
+
+//
+//  detail/sp_counted_base_gcc_x86.hpp - g++ on 486+ or AMD64
+//
+//  Copyright (c) 2001, 2002, 2003 Peter Dimov and Multi Media Ltd.
+//  Copyright 2004-2005 Peter Dimov
+//
+//  Distributed under the Boost Software License, Version 1.0. (See
+//  accompanying file LICENSE_1_0.txt or copy at
+//  http://www.boost.org/LICENSE_1_0.txt)
+//
+//
+//  Lock-free algorithm by Alexander Terekhov
+//
+//  Thanks to Ben Hitchings for the #weak + (#shared != 0)
+//  formulation
+//
+
+#include <boost/detail/sp_typeinfo.hpp>
+
+namespace boost
+{
+
+namespace detail
+{
+
+inline int atomic_exchange_and_add( int * pw, int dv )
+{
+    // int r = *pw;
+    // *pw += dv;
+    // return r;
+
+    int r;
+
+    __asm__ __volatile__
+    (
+        "lock\n\t"
+        "xadd %1, %0":
+        "=m"( *pw ), "=r"( r ): // outputs (%0, %1)
+        "m"( *pw ), "1"( dv ): // inputs (%2, %3 == %1)
+        "memory", "cc" // clobbers
+    );
+
+    return r;
+}
+
+inline void atomic_increment( int * pw )
+{
+    //atomic_exchange_and_add( pw, 1 );
+
+    __asm__
+    (
+        "lock\n\t"
+        "incl %0":
+        "=m"( *pw ): // output (%0)
+        "m"( *pw ): // input (%1)
+        "cc" // clobbers
+    );
+}
+
+inline int atomic_conditional_increment( int * pw )
+{
+    // int rv = *pw;
+    // if( rv != 0 ) ++*pw;
+    // return rv;
+
+    int rv, tmp;
+
+    __asm__
+    (
+        "movl %0, %%eax\n\t"
+        "0:\n\t"
+        "test %%eax, %%eax\n\t"
+        "je 1f\n\t"
+        "movl %%eax, %2\n\t"
+        "incl %2\n\t"
+        "lock\n\t"
+        "cmpxchgl %2, %0\n\t"
+        "jne 0b\n\t"
+        "1:":
+        "=m"( *pw ), "=&a"( rv ), "=&r"( tmp ): // outputs (%0, %1, %2)
+        "m"( *pw ): // input (%3)
+        "cc" // clobbers
+    );
+
+    return rv;
+}
+
+class sp_counted_base
+{
+private:
+
+    sp_counted_base( sp_counted_base const & );
+    sp_counted_base & operator= ( sp_counted_base const & );
+
+    int use_count_;        // #shared
+    int weak_count_;       // #weak + (#shared != 0)
+
+public:
+
+    sp_counted_base(): use_count_( 1 ), weak_count_( 1 )
+    {
+    }
+
+    virtual ~sp_counted_base() // nothrow
+    {
+    }
+
+    // dispose() is called when use_count_ drops to zero, to release
+    // the resources managed by *this.
+
+    virtual void dispose() = 0; // nothrow
+
+    // destroy() is called when weak_count_ drops to zero.
+
+    virtual void destroy() // nothrow
+    {
+        delete this;
+    }
+
+    virtual void * get_deleter( sp_typeinfo const & ti ) = 0;
+
+    void add_ref_copy()
+    {
+        atomic_increment( &use_count_ );
+    }
+
+    bool add_ref_lock() // true on success
+    {
+        return atomic_conditional_increment( &use_count_ ) != 0;
+    }
+
+    void release() // nothrow
+    {
+        if( atomic_exchange_and_add( &use_count_, -1 ) == 1 )
+        {
+            dispose();
+            weak_release();
+        }
+    }
+
+    void weak_add_ref() // nothrow
+    {
+        atomic_increment( &weak_count_ );
+    }
+
+    void weak_release() // nothrow
+    {
+        if( atomic_exchange_and_add( &weak_count_, -1 ) == 1 )
+        {
+            destroy();
+        }
+    }
+
+    long use_count() const // nothrow
+    {
+        return static_cast<int const volatile &>( use_count_ );
+    }
+};
+
+} // namespace detail
+
+} // namespace boost
+
+#endif  // #ifndef BOOST_SMART_PTR_DETAIL_SP_COUNTED_BASE_GCC_X86_HPP_INCLUDED